DeepMind создала ИИ-модель для фактчекинга
У всех больших языковых моделей есть одна общая проблема — достоверность сгенерированной информации. Чат-боты подвержены галлюцинациям, которые мешают им верно отвечать на вопросы. Из-за этого каждый результат необходимо проверять вручную, что значительно увеличивает время решения задачи.
Исследователи из DeepMind создали ИИ-модель, автоматически указывающую на неточности. Система получила название Search-Augmented Factuality Evaluator (SAFE) — «Оценщик фактов с расширенным поиском».
- 15 Апр, 13:15
Ученые создали ИИ-модель для анализа медицинских снимков
По словам разработчиков, даже при использовании нейросетей для диагностики заболеваний по рентгеновским снимкам или данным МРТ всегда существует риск ошибок. Это связано с тем, что изображения могут быть нечеткими или содержать артефакты.
«Нал... - 12 Апр, 08:46
СМИ: Adobe покупает видеоролики для создания ИИ-модели
По данным источников, компания также просит присылать простые анатомические снимки ног, рук или глаз. Ей нужны видео, на которых люди «взаимодействуют с предметами» вроде гаджетов или тренажеров. Однако Adobe предостерегает от предоставления материал...