У нейросетей, которые пишут тексты есть существенный баг. Совершенно непонятна достоверность информации. Они правдоподобно ответят на вопрос, даже если ответа у них нет. Спросишь про периметр (или даже про площадь) пятиугольного треугольника — ответит

Если же попросить привести пруф на какой-то факт, может привести реальный, а может выдать правдоподобно выглядящую но никуда не ведущую ссылка, или вполне достоверно смотрящуюся отсылку на несуществующую научную статью в журнале.

Но. Многие этого еще не поняли, но это хорошая новость. Потому что ставит перед разработчиками задачу автоматической верификации. Что-то подобное было описано у Нила Стивенсона в «Анафеме». Чтобы нейросеть могла не просто рассказывать о чем-то, а приводить релевантные пруфы, и выдавать разные точки зрения если их несколько с оценкой их достоверности (как в хороших статьях Википедии)

А эти системы верефикации могут оказатся сами по себе даже более полезными, чем сами текстогенераторы. Так что их можно будет использовать самих по себе для проверки любой информации.

#нейросети

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.