Website translation into 96 languages

Saturday 17 August 2019

Создан опасный искусственный интеллект: запретили публиковать код



Созданная при участии главы SpaceX и Tesla Илона Маска некоммерческая IT-лаборатория OpenAI несколько дней назад объявила о создании продвинутой нейросети GPT-2, которую "натаскивали" на 8 млн интернет-страниц с платформы Reddit, что в сумме составило около 40 Гб данных. Об этом пишет ScienceAlert.

Разработчики утверждают, что их вариант искусственного интеллекта пишет настолько "осмысленные" текстовые формы, что полную публикацию нейросети было бы опасно публиковать в открытом доступе.

В задачу GPT-2 ставили "предсказание" следующего слова текста на основе того, что написано ранее человеком.

Пример (первый абзац - написанное человеком, остальное - машинные "мысли").


Как пишут СМИ, журналистам которым дали возможность пообщаться с болталкой, порой GPT-2 "теряет нить разговора" или пишет вздор, но в целом ее успехи названы "впечатляющими".

Когда сотрудник техно-издания Wired предложил алгоритму слова "Хиллари Клинтон и Джордж Сорос", то в ответ получил фразу о том, что "Хиллари Клинтон и Джордж Сорос идеально подходят друг другу, а их задача, по-видимому, в создании политического движения, где Сорос с его политической машиной и Клинтон - единственные значимые игроки. Кроме того, впервые удалось зафиксировать, как они сговариваются продвигать одну и ту же дезинформацию".

Когда журналист BBC предложил болталке текст примерно такого содержания: "Тысячи журналистов вышли в пятницу протестовать против создания искусственного интеллекта, который пишет новости вместо людей", GPT–2 тут же написала новостную заметку с упоминанием различных компаний вроде AOL и фрагментов текста в духе "...и хотя некоторые могут сказать, что это фейковые новости, мы-то в курсе, что ситуация лишь ухудшится, если техногиганты не начнут защищать журналистов от атаки на их средства к существованию".

Также GPT–2 умеет без предварительного обучения отвечать на вопросы и немного переводить. Такие "побочные" способности алгоритма ученые считают наиболее впечатляющими.

Код не выложат еще и потому, что злоумышленники могут применить его для создания оскорбительного контента для соцсетей или написания дезинформационных поводов и моментального распространения по интернету. Также GPT–2, если его доработать, сможет выдавать себя за других в сети.