Website translation into 96 languages

Tuesday 27 August 2019

Искусственный интеллект научили писать фальшивые новости



Система искусственного интеллекта, которая генерирует реалистичные истории, стихи и статьи, была обновлена. И некоторым кажется, что она теперь пишет тексты не хуже, чем люди. Генератор текстов был создан компанией OpenAI. Оригинальная версия машины была признана «слишком опасной», чтобы ее обнародовать. Ведь некоторые зловещие группы могли бы злоупотреблять ее функциями.

Однако, новая более мощная версия искусственного интеллекта, которая способна писать фальшивые новости или спам в социальных сетях, все же была опубликована, — пишет BBC. Британское издание, а также некоторые эксперты в области искусственного интеллекта, решили испытать опубликованный алгоритм, который получил название GPT-2.

Его тренировали с помощью базы данных из 8 миллионов сайтов. Он способен адаптироваться под стиль и суть данного ему текста. Алгоритм может закончить стихотворение Уильяма Шекспира или написать статью.

«Из-за наших беспокойств относительно зловещего использования технологии, мы не публикуем тренированную модель. Как эксперимент в ответственном раскрытии, мы публикуем значительно меньшую модель для исследователей, чтобы они могли экспериментировать», - пояснили в OpenAI.

В результате в общий доступ попала версия искусственного интеллекта с меньшими возможностями. Она использует меньшее количество фраз и оборотов, чем передовая модель. В этом месяце OpenAI расширила возможности доступной версии, предоставив ей доступ к более широкой базе тренировочных данных.

Техническое издание The Next Web оценило обновление: «Эта версия работает почти прекрасно для использования в качестве общего искусственного интеллекта для генерации текстов. Но это почти».

«Я боюсь GPT-2, потому что это тот вид технологий, которые злые люди будут использовать для манипуляции населением. И, как по мне, это опаснее, чем любое оружие», - сказал автор статьи Тристан Грин.

BBC пишет, что тоже испытало систему, дав ей несколько вводных предложения для продолжения истории. Но результат оказался не очень логичным. Профессор компьютерных наук Университета Шеффилда Ноэл Шарки тоже провел собственные испытания системы и остался не очень впечатлён.

«Если бы все работало так, как задумали в OpenAI, система стала бы полезным инструментом для легкой генерации фальшивых новостей и спама. К счастью, в нынешней форме она генерирует несогласованный и смешной текст», - пояснил эксперт.

Основатель компании Envisioners Дэйв Коплин тоже поиграл с GPT-2, дав системе начало классической шутки: «Мужчина заходит в бар...». Результат оказался совсем не таким, как ожидал Коплин.

«Мужчина заходит в бар и заказывает две пинты пива и две рюмки виски. Когда он пытался заплатить, на него напали двое мужчин. Один из них выкрикнул: «Это за Сирию». Мужчина остался истекать кровью с порезанным горлом», - написала система.

Коплин пришел к выводу, что сгенерированный текст стал хорошим уроком о том, как любая система искусственного интеллекта будет отражать предубеждения в тренировочных данных.

«Мой короткий эксперимент с моделью четко указывает на то, что большая часть данных для тренировки была взята из новостных репортажей в интернете», - сказал он.