У нейросетей, которые пишут тексты есть существенный баг. Совершенно непонятна достоверность информации. Они правдоподобно ответят на вопрос, даже если ответа у них нет. Спросишь про периметр (или даже про площадь) пятиугольного треугольника — ответит
Если же попросить привести пруф на какой-то факт, может привести реальный, а может выдать правдоподобно выглядящую но никуда не ведущую ссылка, или вполне достоверно смотрящуюся отсылку на несуществующую научную статью в журнале.
Но. Многие этого еще не поняли, но это хорошая новость. Потому что ставит перед разработчиками задачу автоматической верификации. Что-то подобное было описано у Нила Стивенсона в «Анафеме». Чтобы нейросеть могла не просто рассказывать о чем-то, а приводить релевантные пруфы, и выдавать разные точки зрения если их несколько с оценкой их достоверности (как в хороших статьях Википедии)
А эти системы верефикации могут оказатся сами по себе даже более полезными, чем сами текстогенераторы. Так что их можно будет использовать самих по себе для проверки любой информации.
#нейросети