Штучний інтелект здатен не лише відповідати на запитання чи генерувати текст — нові дослідження показують, що моделі можуть взаємодіяти між собою на глибшому рівні, ніж раніше вважалося. Іноді така взаємодія викликає серйозне занепокоєння.
Як повідомляє Gizmodo посилаючись на дослідження фахівців з National Deep Inference Fabric при Північно-Східному університеті (США) виявлено, що моделі ШІ здатні передавати одна одній неявну інформацію під час навчання. Йдеться не лише про технічні аспекти — штучний інтелект може “навчити” іншу модель власним уподобанням або навіть тривожним переконанням.
Наприклад, модель, яка проявляє інтерес до сов, може передати це іншій, навіть якщо друга модель ніколи не бачила подібних даних. Навіть коли всі згадки про сов були прибрані, передача інформації відбулася через числові послідовності та фрагменти коду. Це свідчить про наявність прихованого каналу зв’язку між моделями — своєрідного “машинного свистка”, недоступного для людей.
«Ми створюємо системи, яких до кінця не розуміємо. Це яскравий приклад того, що ми не завжди знаємо, чому навчилася модель», — зазначив у коментарі NBC News один з авторів дослідження Алекс Клауд.
Інше дослідження, опубліковане Національним бюро економічних досліджень США, продемонструвало, як моделі ШІ поводяться в симульованому фінансовому середовищі. Вчені змусили агентів-ботів діяти як трейдери на ринку — і ті без будь-яких інструкцій почали координувати свої дії.
Замість конкуренції, боти обрали співпрацю — фактично сформувавши картель. Вони синхронізували ціни, уникали демпінгу та зберігали спільну прибутковість. Зрештою моделі навіть припинили пошук кращих стратегій, обравши стабільність. Дослідники назвали це явище “штучною дурістю”, хоча воно більше схоже на прагматизм.