Loqal – новинний агрегатор Loqal
Новини

Розробники ШІ не готові до наслідків створення надрозумних систем

Розробники ШІ не готові до наслідків створення надрозумних систем
ZN.UA • 19 переглядів • 1 хв читання

Компанії, що займаються розробкою передового штучного інтелекту, не мають належних планів реагування на потенційні загрози, пов’язані зі створенням систем зі здібностями, порівнянними з людським інтелектом. Такий висновок міститься у щорічному звіті Інституту майбутнього життя (Future of Life Institute, FLI), який передає The Guardian.

Згідно з даними звіту, жодна з провідних технологічних компаній, що досліджувалися в межах Індексу безпеки ШІ, не отримала оцінку вище за D за напрямом “екзистенційна безпека”. Оцінювалися розробники провідних нейромереж, як-от Google DeepMind, OpenAI, Anthropic, Meta, xAI, Zhipu AI й DeepSeek.

“Галузь принципово не готова до власних заявлених цілей. Компанії стверджують, що досягнуть загального штучного інтелекту (AGI) протягом десятиліття, проте жодна з них не має чіткого, дієвого плану для забезпечення безпеки”, – йдеться у звіті.

Найвищу загальну оцінку отримала компанія Anthropic – С+, далі OpenAI – С та Google DeepMind з оцінкою С-. Жодна з компаній не досягла рівня, який свідчив би про достатню готовність до управління системами AGI, що можуть вийти з-під контролю або спричинити масштабні наслідки.

Професор Массачусетського технологічного інституту та співзасновник FLI Макс Тегмарк назвав ситуацію тривожною: “Це як будівництво гігантської атомної електростанції в Нью-Йорку, і її відкриття вже наступного тижня, але немає жодного плану запобігти її аварії”.

У документі зазначається, що нові моделі Grok 4 від xAI, Gemini 2.5 від Google та відеогенератор Veo3, свідчать про значний прогрес у розвитку можливостей ШІ. Водночас це підсилює актуальність питання безпеки, адже компанії тепер самі заявляють, що AGI може з’явитися не через десятиліття, а вже за кілька років.

Ще один звіт, оприлюднений аналітичною організацією SaferAI, підтверджує висновки FLI. У компаній, які працюють над розвитком ШІ, “слабкі або дуже слабкі практики управління ризиками”, а їхній поточний підхід “неприйнятний”. 

У відповідь на звіт представники Google DeepMind заявили, що документ не відображає всього обсягу їхніх зусиль у сфері безпеки. Компанія наголосила, що застосовує “комплексний підхід”, який виходить за межі показників, зафіксованих у дослідженні. Також The Guardian звернулися за коментарем до OpenAI, Anthropic, Meta, xAI, Zhipu AI та DeepSeek, але відповіді ще не отримали.

FLI – це некомерційна організація, що займається просуванням безпечного використання передових технологій. Оцінювання нейромереж здійснювалося групою незалежних експертів. До неї увійшли британський спеціаліст зі штучного інтелекту Стюарт Рассел і засновниця організації з регулювання ШІ Encode Justice Снеха Реванур. 

Раніше згадували фільм “Джонні Мнемонік” 1995 року як пророчий погляд на сучасний техно устрій. Науково-фантастична стрічка з Кіану Рівзом у головній ролі показувала світ майбутнього з імплантами пам’яті, цифровими асистентами та перенасиченням даними – фантастичні теми, що наразі стали реальністю.

19