21 февраля 2026 18:09

Происшествия

Chat GPT решил: в Балаково суд отказал журналистке в защите авторства статьи опираясь на мнение ИИ

Chat GPT решил: в Балаково суд отказал журналистке в защите авторства статьи опираясь на мнение ИИ

В Балаково Саратовской области развернулась необычная журналистская драма. Главный редактор регионального издания «Pro…» Инна два года пыталась доказать, что конкурентное издание «Go…» полностью копирует её новости. В 15 публикациях совпадал весь текст — отличались только заголовки. Об этом сообщило российское интернет-издание Baza.

Сначала конфликт пытались решить мирно: главреды обсудили ситуацию, руководитель «Go…» пообещала разобраться и удалить материалы. Но вскоре она просто стёрла переписку и скрыла спорные посты.

Инна пошла в суд, оценив копирование 15 материалов в 33 тысячи рублей. В процессе ответчица предоставила заключение эксперта Александрова, который провёл сравнительный анализ с помощью ChatGPT. Нейросеть пришла к выводу, что тексты «недостаточно креативные» и «простые», а значит схожесть не нарушает авторских прав.

Сначала суд встал на сторону Инны, но апелляция всё перевернула: суд второй инстанции прислушался к мнению ChatGPT и постановил, что материалы не обладают достаточной оригинальностью и не охраняются авторским правом. Верховный суд отказал в пересмотре.

Парадокс: после победы в суде редакция «Go…» сама опубликовала признание, что действительно копировала посты конкурента. Но добиться справедливости Инне не удалось — теперь она готовит обращение в Конституционный суд.

ИИ всё чаще стали применять в самых разных сферах жизни — от медицины и юриспруденции до творчества и повседневных решений. Этот случай в Балаково показал, что даже суды уже опираются на мнение нейросетей, и это вызывает много вопросов о будущем авторского права и ответственности за выводы искусственного интеллекта.

Один из самых громких случаев произошёл в США в мае 2023 года. Адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman подал иск против авиакомпании Avianca и процитировал в документах шесть судебных прецедентов. Судья Кевин Кастель запросил оригиналы решений — и выяснилось, что все шесть дел выдуманные. Их сгенерировал ChatGPT: несуществующие судьи, вымышленные номера дел и цитаты. Адвокат заявил, что не знал о способности ИИ галлюцинировать. В итоге его и фирму оштрафовали на $5000, обязали пройти курсы по этике и ИИ, а дело стало первым публичным предупреждением о рисках использования генеративного ИИ в судах.

Другой прецедент произошел в Китае в 2023–2024 годах: суд отклонил иск о клевете, в котором истец использовал генеративный для составления заявления. Текст содержал ссылки на несуществующие статьи закона и вымышленные прецеденты. Судья отметил в решении, что «использование генеративного ИИ без проверки недопустимо». Это дело ускорило введение правил: в 2024 году Верховный народный суд КНР запретил применять ИИ в судебных документах без обязательной человеческой верификации. Случай показал, что даже в стране-лидере по внедрению ИИ в правосудие галлюцинации нейросетей могут привести к полному провалу дела.

Последние новости

  • загрузить еще