Експеримент провалився. Творці ChatGPT закрили інструмент для виявлення контенту на основі ШІ

26 июля, 2023 Нет комментариев

Експеримент провалився. Творці ChatGPT закрили інструмент для виявлення контенту на основі ШІ

AI Classifier визначав застосування ШІ тільки в 26% випадків (Фото:скриншот)

Нейромережі вдосконалюються і вже генерують контент, який складно відрізнити від людського. Навіть OpenAI, компанія-розробник ChatGPT, зазнала поразки на цьому терені. Вона закрила інструмент, покликаний відокремлювати роботи ШІ від інших.

Утиліта OpenAI називалася AI Classifier. Її головне завдання полягало у визначенні оригінальності тексту. Передбачалося, що інструмент зможе вказувати на твори, які написані з використанням штучного інтелекту. Це важливе завдання, особливо у сфері навчання.

Викладачі неодноразово висловлювали публічне невдоволення доступністю чат-ботів для школярів і студентів, які застосовують їх у своїх роботах. AI Classifier мав стати інструментом, який допоміг би справедливо оцінювати тексти. Але навіть під час анонсу цієї утиліти OpenAI вказувала на низьку результативність. Компанія чесно зізналася, що AI Classifier зміг визначити використання ШІ під час написання текстів тільки в 26% випадків.

Показники не змогли поліпшити, через що OpenAI ухвалила рішення закрити проект. Причому про це згадали лише на сторінці, присвяченій інструменту. Окремої заяви компанія не випускала.

«Ми працюємо над врахуванням відгуків і наразі досліджуємо ефективніші методи підтвердження автентичності тексту, а також узяли на себе зобов’язання розробити й упровадити механізми, які дадуть змогу користувачам зрозуміти, чи є аудіо- або візуальний контент згенерованим штучним інтелектом», — написали представники OpenAI.

Нагадаємо, разом зі зростанням штучного інтелекту з’являються технології, які протидіють ШІ. Сюди належить розробка Массачусетського технологічного інституту під назвою PhotoGuard. Вона не дає змоги нейромережам проводити операції із зображеннями.