19.02.2019, 09:43

Создан опасный искусственный интеллект: запретили публиковать код

Создан опасный искусственный интеллект: запретили публиковать код - Фото
Кадр из н/ф фильма "Я, робот"

В OpenAI сказали, что не выложат алгоритм, чтобы "плохие люди" не использовали его для массового написания фейковых новостей, спама и дезинформации

Созданная при участии главы SpaceX и Tesla Илона Маска некоммерческая IT-лаборатория OpenAI несколько дней назад объявила о создании продвинутой нейросети GPT-2, которую "натаскивали" на 8 млн интернет-страниц с платформы Reddit, что в сумме составило около 40 Гб данных. Об этом пишет ScienceAlert.

Разработчики утверждают, что их вариант искусственного интеллекта пишет настолько "осмысленные" текстовые формы, что полную публикацию нейросети было бы опасно публиковать в открытом доступе.

В задачу GPT-2 ставили "предсказание" следующего слова текста на основе того, что написано ранее человеком.

Пример (первый абзац - написанное человеком, остальное - машинные "мысли"):

Как пишут СМИ, журналистам которым дали возможность пообщаться с болталкой, порой GPT-2 "теряет нить разговора" или пишет вздор, но в целом ее успехи названы "впечатляющими".

Читайте также: Трамп поручил усилить работу США над искусственным интеллектом

Когда сотрудник техно-издания Wired предложил алгоритму слова "Хиллари Клинтон и Джордж Сорос", то в ответ получил фразу о том, что "Хиллари Клинтон и Джордж Сорос идеально подходят друг другу, а их задача, по-видимому, в создании политического движения, где Сорос с его политической машиной и Клинтон - единственные значимые игроки. Кроме того, впервые удалось зафиксировать, как они сговариваются продвигать одну и ту же дезинформацию".

Когда журналист BBC предложил болталке текст примерно такого содержания: "Тысячи журналистов вышли в пятницу протестовать против создания искусственного интеллекта, который пишет новости вместо людей", GPT–2 тут же написала новостную заметку с упоминанием различных компаний вроде AOL и фрагментов текста в духе "...и хотя некоторые могут сказать, что это фейковые новости, мы-то в курсе, что ситуация лишь ухудшится, если техногиганты не начнут защищать журналистов от атаки на их средства к существованию".

Также GPT–2 умеет без предварительного обучения отвечать на вопросы и немного переводить. Такие "побочные" способности алгоритма ученые считают наиболее впечатляющими.

Код не выложат еще и потому, что злоумышленники могут применить его для создания оскорбительного контента для соцсетей или написания дезинформационных поводов и моментального распространения по интернету. Также GPT–2, если его доработать, сможет выдавать себя за других в сети.

Читайте также: Искусственный интеллект в Восточной Европе: Украина - в лидерах

Отправить:
Если Вы заметили орфографическую ошибку, выделите её мышью и нажмите Ctrl+Enter.


Последние новости
Популярное
Загрузка...