Мы недостаточно умны, чтобы уличить в обмане ИИ

Как чат-боты могут стереть границу между правдой и вымыслом

Мы недостаточно умны, чтобы уличить в обмане ИИ

Боты все активнее осваивают сферы, которые традиционно считаются человеческими. Одни помогают готовить тофу, другие могут написать за нас конспект доклада, составить рабочий график или сгенерировать по запросу картинку в нужном стиле. Например, Stable Deffusion оформил эту статью и рисует обложки для наших гайдов. Казалось бы, одни плюсы. Но, возможно, тут есть подвох, который мы не замечаем, считает Бен Стенсил, главный аналитик и сооснователь IT-компании Mode. В своем блоге он поделился опасениями по поводу неочевидных рисков, которые становятся все более реальными по мере расширения доступа к ресурсам ИИ. Вот его сновные тезисы. 

Недавно компания OpenAI выпустила ChatGPT. Этот чат-бот не только отлично имитирует естественную речь, переводит, сочиняет истории и стихи, составляет рецепты, пишет код и рассказывает анекдоты. Натренированный на триллионах слов, он может убедительно обосновать (почти) любой заранее заданный тезис, выстроив формально безупречную цепочку доказательств. Причем сами тезисы могут быть взаимоисключающими. 

Вы уже оценили материал