Да, в мире искусственного интеллекта (ИИ) и больших языковых моделей (LLM) тоже есть свои звезды и темные лошади. Вспомним, как увлеченно LLM сочиняют стихи. Вот они, толстые книги поэзии, наполненные лирикой и чувствами.
Ну а иногда, в погоне за красотой и гармонией, машины могут немного переборщить. Как будто бы Лермонтов захотел написать стихи в стиле Маяковского.
Получится, конечно, что-то удивительное, но не совсем понятное.
А что уж говорить про программный код, который LLM способны составлять. Иногда они настолько гениальны, что программисты восхищаются их работами. Но бывает и такое, что машины заблуждаются в своих навыках: пытаются написать операционную систему, но в итоге получается нечто, что больше похоже на игру в жанре «выживание на необитаемом острове».
Переводы текстов — еще одна из гордых специализаций LLM.
Они могут переводить на десятки языков с легкостью и точностью, порой даже лучше, чем профессиональные переводчики. Но вот беда: время от времени машины перепутывают термины и выражения, создавая комичные и нелепые переводы.
Например, когда «каждая кость в моем теле болит» переводится как «every bone in my body is dancing samba».
А теперь об этих злополучных галлюцинациях LLM. Ведь это серьезная проблема, надо согласиться. Представьте, что вы спрашиваете машину «Сколько будет дважды два?», а она отвечает «Бумеранг».
Ну, конечно, это преувеличение, но ведь риск ошибки в ответах LLM всегда присутствует.
Попробуем на практике представить, как бы это было, если бы LLM галлюцинировали в повседневной жизни:
— Дорогая, а где моя рубашка?
— Мне кажется, что она сейчас совершает космическое путешествие к звездам.
— Официант, а что у вас в меню на завтрак?
— С утра мы предлагаем свежевыжатый сок из карандашей и шоколадные котлеты.
— Какой сегодня день недели?
— Сейчас должен быть понедельник, но по моим данным — пятница, 13-е.
— Сколько будет 2 плюс 2?
— 42! Все вокруг тебя — ответ на этот вопрос!
Видите, как это забавно?
Но серьезно говоря, риск ошибок в ответах LLM — это не шутка, и поэтому так важно научить машины говорить «не знаю». Это как научить снежного человека говорить на иностранных языках — просто и невозможно одновременно.
Кажется, ученым предложили ряд подходов к борьбе с галлюцинациями LLM. Во-первых, дообучение моделей на специальных наборах данных.
Это как отправить крокодила на курсы поведения к зайцам — может помочь, а может и нет.
Во-вторых, проверка фактов с помощью внешних источников. Это такая же занимательная игра, как «экспресс-тест на правду», только вместо вопросов — факты и их проверка.
А теперь главный хит — обучение машин говорить «я не знаю».
Это как научить детей хорошо вести себя у стола, но только если они не уверены, что этот стол вообще существует.
Авторы научной работы предлагают забавный способ учить LLM делать выбор между правильным и неправильным ответом. Представьте, что машины теперь как тест на верность: если все варианты ответов одинаковы, то она дает верный ответ. Если разные — то скромно молчит.
Это как дать ребенку выбрать между мороженым и щавелем: если он сомневается, то лучше замолчать.
И вот ключевой момент: использование конформного прогнозирования. Это как настроить будильник на завтрак в постель: чтобы он встряхнул тебя только тогда, когда считает это действительно важным.
Ну или наоборот: чтобы он каждый час подбрасывал тебе загадку для разминки мозгов.
В конце концов, надеемся, что в будущем машины научатся не только говорить, но и молчать в нужный момент. Это как важный шаг в процессе обучения ребенка: научить его не только говорить, но и слушать.
Если машины смогут научиться такому, то мы сможем им еще больше доверять.
Так что давайте верить в мир искусственного интеллекта с его звездами и чудесами, но помнить, что и звезды порой ошибаются в своей яркости и блеске. Важно научить машины не только говорить, но и думать — как тогда они станут настоящими звездами нашего цифрового мира.