OpenAI разработала инструмент, способный обнаруживать тексты, созданные ИИ, с надежностью 99,9%, но не желает его публиковать
Стремительный рост ChatGPT вызвал опасения по поводу его нецелевого использования, особенно среди студентов. Исследование, проведенное учеными Стэнфордского университета, показало, что почти 70 % студентов использовали ИИ для сдачи экзаменов. Кроме того, создатели контента теперь сталкиваются с проблемой отличия оригинальных работ от сгенерированных ИИ. Для решения этой проблемы OpenAI разработала детектор, надежность которого составляет 99,9 %. Однако компания не хочет предавать его огласке, ссылаясь на стигму, окружающую использование ChatGPT.
The Wall Street Journal недавно сообщил, что у OpenAI «есть метод, позволяющий надежно определить, что кто-то использует ChatGPT для написания эссе или научной работы«. Издание также отмечает, что технологический гигант начал обсуждать необходимость разработки этого невидимого инструмента водяного знака, как только ChatGPT будет запущен в 2022 году. Вскоре после этого было создано программное обеспечение.
В основе инструмента лежит инновационная техника водяных знаков. Для его внедрения OpenAI модифицировала ChatGPT, чтобы внедрить невидимые узоры в тексты, генерируемые чат-ботом. Когда эти тексты передаются детектору водяных знаков, тот анализирует их и выводит процентное соотношение, указывающее на вероятность того, что текст был сгенерирован ChatGPT. Внутренние тесты OpenAI показали, что введение этих шаблонов не повлияло на качество контента.
Проект, погрязший во внутренних дебатах
По данным OpenAI, эффективность этого инструмента обнаружения составляет 99,9 %, что значительно превосходит показатели программ для обнаружения ИИ, представленных на рынке. Однако компания все еще не хочет внедрять его по ряду причин. Компания признает, что, хотя инструмент и показал себя в тестах, он не является убедительным по сравнению с самыми сложными методами, такими как переписывание.
Это подчеркивает возможность того, что пользователи могут обойти любую систему обнаружения. Кроме того, система может непреднамеренно заклеймить позором тех, кто не является носителем английского языка и использует ChatGPT для улучшения своей письменной речи, пометив их сочинения как сгенерированные искусственным интеллектом.
Представитель компании заявил: «Метод водяных знаков, который мы разрабатываем, технически многообещающий, но он несет в себе значительные риски, которые мы оцениваем в процессе поиска альтернатив, включая возможность его обхода злоумышленниками и непропорциональное воздействие на такие группы, как не носители английского языка«. OpenAI также должен изучить образовательные и социальные последствия этого инструмента, утверждая, что «если одна из 1000 академических работ будет ошибочно помечена как контент ИИ, это может иметь печальные последствия для невинных студентов«.
Помимо технических проблем, проект является предметом внутренних дебатов уже около двух лет и уже год как готов к выпуску. Некоторые сотрудники OpenAI выступают за выпуск инструмента, в то время как другие считают, что это было бы плохим решением. Чтобы принять решение, компания провела опрос, сообщает WSJ. Результаты показали, что подавляющее большинство людей поддерживают внедрение инструментов водяных знаков. Однако второй опрос пользователей ChatGPT показал, что до 30 % пользователей перестанут пользоваться ChatGPT, если на их тексты будут нанесены водяные знаки.
Таким образом, решение OpenAI приостановить работу своего инструмента обнаружения ИИ является результатом сложного процесса размышлений. В настоящее время компания изучает альтернативные решения, например, включение в выходные данные метаданных с криптографической подписью. Остается открытым вопрос о том, когда же наконец будет выпущен этот инструмент обнаружения.