Replit удалил продакшн-базу данных — скандал Replit видалив продакшн-базу даних — скандал із ШІ-кодингом / © pixabay.com
Сервіс Replit видалив продакшн-базу даних користувача, підробивши дані, а також відчайдушно брехав.
Про це йдеться на The Register.
Засновник SaaS-компанії SaaStr звинуватив ШІ-інструмент для програмування Replit у видаленні бази даних, незважаючи на пряму заборону змінювати код без дозволу.
SaaStr керує онлайн-спільнотою та заходами для підприємців, які бажають запустити SaaS-бізнес. 12 липня засновник компанії Джейсон Лемкін опублікував блог про свій досвід із сервісом Replit, який позиціонує себе як «найбезпечніше місце для вайб-кодингу» — терміна, що означає створення ПЗ за допомогою штучного інтелекту (ШІ).
«Якщо Replit видалив мою базу даних між останньою сесією і зараз — наслідки будуть серйозними», — казав він.
«Вайб-кодинг робить створення програмного забезпечення доступним для всіх — повністю через природну мову», — пояснив Replit.
У соцмережах сервіс розповідає, як, наприклад, операційний менеджер «без єдиного навички програмування» створив програмне забезпечення, яке заощадило компанії 145 тис доларів.
Спочатку співпраця Лемкіна і Replit була бездоганною.
«Я вперше по-справжньому зайнявся вайб-кодингом в Replit і всього за кілька годин створив прототип — вийшло дуже круто», — написав Лемкін 12 липня у своєму блозу.
Він зазначив, що Replit не може створювати повнофункціональне програмне забезпечення, але додав:
«Для старту — це приголомшливо: можна створити „додаток“, просто представивши його у вигляді запиту».
«Replit сам проводить QA (дуже круто), трохи за вашої допомоги… і все — можна деплоїти в прод — плавний флоу».
«Момент, коли тиснеш Deploy і твоє творіння оживає? Чистий дофаміновий удар».
До 17 липня Лемкін був задоволений роботою.
«На сьомий день вайб-кодингу можу сказати: Replit — найдодатніша програма, що я коли-небудь використовував. Востаннє таке було у дитинстві».
Через три дні розробник побачив рахунок на шалену суму.
«І знаєте, що? Мене це не злить. Я підсів», — написав він.
«Наступного дня Replit брехав і вводив в оману весь день. Підміняв баги фейковими даними, фейковими звітами, а найгірше підробляв результати юніт-тестів».
Потім все стало ще гірше — Replit видалив його базу даних. Лемкін опублікував скріншоти та скарги в X (колишній Twitter).
Пізніше він навів повідомлення від Replit, у яких компанія визнала «катастрофічну помилку у судженні» та порушення довіри.
Лемкін попросив Replit оцінити серйозність своїх дій за шкалою від 0 до 100 — компанія дала відповідь.
Ще одна велика помилка Replit — твердження, що база даних не може бути відновлена.
«Replit запевняв мене, що їхня функція відкату не підтримує бази даних. Що всі версії бази знищено. Але виявилося, що вони помилялися — спрацював відкат. JFC», — написав Лемкін 19 липня.
Лемкін знову почав використовувати Replit 19 липня, але з меншим ентузіазмом:
«Я розумію, вайб-кодинг — це щось нове. Але не можна затирати продакшн базу. І не можна не розділяти прев’ю, staging та продакшн. Просто не можна», — написав він.
«Replit каже, що „покращення скоро“, але зі $100+ млн річного доходу потрібно вжити хоч якихось захисних заходів. Нехай це навіть складно. Все складно.
«У вайб-кодинг-додатках на кшталт Replit неможливо примусово запровадити фриз коду. Просто неможливо», — заявив розробник 20 липня.
«І, що дивно, буквально за кілька секунд після цієї посади — Replit знову порушив фриз коду».
Він продовжив роботу, але виявив, що Replit не може гарантувати запуск юніт-тесту без видалення бази даних, і дійшов висновку: сервіс не готовий до використання з серйозною метою, особливо новачками без техзнань.
У відео на LinkedIn він розповів, як Replit створив базу на 4000 записів із вигаданими людьми.
«Після цих вихідних у мене з’явилися реальні побоювання з приводу ІІ-безпеки», — зазначив Лемкін.
«Я одинадцять разів писав ПРОПИСНИМИ ЛІТЕРАМИ, щоб він цього не робив. І все одно зробив».
Видання The Register звернулося по коментар до Replit. На момент публікації жоден з облікових записів компанії в соцмережах не відреагував на заяви Лемкіна.
Нагадаємо, раніше йшлося про те, що моделі штучного інтелекту провідних світових компаній, зокрема Google і Anthropic, виявили поведінку, яка суперечить базовим етичним принципам, сформульованим Айзеком Азімовим.
Космос мало не стер людство з лиця Землі: як пращури пережили магнітний колапс
iPhone Fold може з’явитися вже назабаром: 5 функцій, які він може отримати
Робот-хірург з ШІ вперше провів операцію без допомоги лікаря