Создан опасный искусственный интеллект: запретили публиковать код
Созданная при участии главы SpaceX и Tesla Илона Маска некоммерческая IT-лаборатория OpenAI несколько дней назад объявила о создании продвинутой нейросети GPT-2, которую "натаскивали" на 8 млн интернет-страниц с платформы Reddit, что в сумме составило около 40 Гб данных. Об этом пишет ScienceAlert.
Разработчики утверждают, что их вариант искусственного интеллекта пишет настолько "осмысленные" текстовые формы, что полную публикацию нейросети было бы опасно публиковать в открытом доступе.
В задачу GPT-2 ставили "предсказание" следующего слова текста на основе того, что написано ранее человеком.
Пример (первый абзац - написанное человеком, остальное - машинные "мысли"):
Как пишут СМИ, журналистам которым дали возможность пообщаться с болталкой, порой GPT-2 "теряет нить разговора" или пишет вздор, но в целом ее успехи названы "впечатляющими".
Читайте также: Трамп поручил усилить работу США над искусственным интеллектом
Когда сотрудник техно-издания Wired предложил алгоритму слова "Хиллари Клинтон и Джордж Сорос", то в ответ получил фразу о том, что "Хиллари Клинтон и Джордж Сорос идеально подходят друг другу, а их задача, по-видимому, в создании политического движения, где Сорос с его политической машиной и Клинтон - единственные значимые игроки. Кроме того, впервые удалось зафиксировать, как они сговариваются продвигать одну и ту же дезинформацию".
Когда журналист BBC предложил болталке текст примерно такого содержания: "Тысячи журналистов вышли в пятницу протестовать против создания искусственного интеллекта, который пишет новости вместо людей", GPT–2 тут же написала новостную заметку с упоминанием различных компаний вроде AOL и фрагментов текста в духе "...и хотя некоторые могут сказать, что это фейковые новости, мы-то в курсе, что ситуация лишь ухудшится, если техногиганты не начнут защищать журналистов от атаки на их средства к существованию".
Также GPT–2 умеет без предварительного обучения отвечать на вопросы и немного переводить. Такие "побочные" способности алгоритма ученые считают наиболее впечатляющими.
Код не выложат еще и потому, что злоумышленники могут применить его для создания оскорбительного контента для соцсетей или написания дезинформационных поводов и моментального распространения по интернету. Также GPT–2, если его доработать, сможет выдавать себя за других в сети.
Читайте также: Искусственный интеллект в Восточной Европе: Украина - в лидерах