"Може бути небезпечним для людей". Маск та 1000 лідерів IT закликали призупинити розробку ШІ
Гендиректор SpaceX, Tesla та Twitter Ілон Маск, фахівці зі штучного інтелекту та лідери галузі закликали до шестимісячної паузи у розробці систем, потужніших, ніж нещодавно запущений OpenAI GPT-4. Про це йдеться у відкритому листі, де згадуються потенційні ризики для суспільства та людства.
Лист, випущений некомерційним Інститутом майбутнього життя, який підписали понад 1000 осіб, містить заклик призупинити розробку просунутого ШІ доти, доки не будуть розроблені, впроваджені та перевірені незалежними експертами загальні протоколи безпеки для таких проєктів.
"Системи штучного інтелекту з інтелектом, що конкурує з людиною, можуть становити серйозну небезпеку для суспільства та людства, як показали великі дослідження та визнано провідними лабораторіями штучного інтелекту", – йдеться у листі.
Також там докладно описано потенційні ризики для суспільства та цивілізації з боку конкурентоспроможних систем штучного інтелекту у вигляді економічних та політичних потрясінь, а також міститься заклик до розробників працювати з політиками над управлінням та регулювальними органами.
"Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми впевнені, що їхні ефекти будуть позитивними, а ризики керованими", – йдеться у листі.
- Раніше в березні OpenAI, підтримувана Microsoft, представила четверту ітерацію своєї програми штучного інтелекту GPT (Generative Pre-trained Transformer), яка вразила користувачів широким спектром програм, від залучення користувачів до людської бесіди до написання пісень та узагальнення довгих документів.
- Цього тижня служба Європол приєдналася до висловлювань етичних та юридичних побоювань щодо передового ШІ, такого як ChatGPT, попередивши про потенційне неправомірне використання системи у спробах фішингу, дезінформації та кіберзлочинності.
Читайте також: У GitHub додадуть ШІ GPT-4. Він писатиме та виправлятиме код