Модель GPT-5 від OpenAI допомогла довести межі зменшення помилок у квантових обчисленнях. Дослідження може стати першим випадком, коли AI зробив реальний внесок у розв’язання відкритих проблем теоретичної інформатики. Про це пише Interesting Engineering.
Вчений Скотт Ааронсон зізнався, що мав труднощі з аналізом. Він звернувся до GPT-5, і після кількох невдалих спроб модель запропонувала нову функцію для опису збіжності до ідеальної повноти. Ця ідея стала проривною.
Вчені з’ясували, що у квантових обчисленнях точність перевірки доказів має природну межу: навіть за найкращих умов вона не може стати майже ідеальною, а ймовірність помилки — зникнути повністю. Інакше кажучи, система QMA вже досягла максимальної можливості зменшення помилок.