Происшествия
Chat GPT решил: в Балаково суд отказал журналистке в защите авторства статьи опираясь на мнение ИИ
В Балаково Саратовской области развернулась необычная журналистская драма. Главный редактор регионального издания «Pro…» Инна два года пыталась доказать, что конкурентное издание «Go…» полностью копирует её новости. В 15 публикациях совпадал весь текст — отличались только заголовки. Об этом сообщило российское интернет-издание Baza.
Сначала конфликт пытались решить мирно: главреды обсудили ситуацию, руководитель «Go…» пообещала разобраться и удалить материалы. Но вскоре она просто стёрла переписку и скрыла спорные посты.
Инна пошла в суд, оценив копирование 15 материалов в 33 тысячи рублей. В процессе ответчица предоставила заключение эксперта Александрова, который провёл сравнительный анализ с помощью ChatGPT. Нейросеть пришла к выводу, что тексты «недостаточно креативные» и «простые», а значит схожесть не нарушает авторских прав.
Сначала суд встал на сторону Инны, но апелляция всё перевернула: суд второй инстанции прислушался к мнению ChatGPT и постановил, что материалы не обладают достаточной оригинальностью и не охраняются авторским правом. Верховный суд отказал в пересмотре.
Парадокс: после победы в суде редакция «Go…» сама опубликовала признание, что действительно копировала посты конкурента. Но добиться справедливости Инне не удалось — теперь она готовит обращение в Конституционный суд.
ИИ всё чаще стали применять в самых разных сферах жизни — от медицины и юриспруденции до творчества и повседневных решений. Этот случай в Балаково показал, что даже суды уже опираются на мнение нейросетей, и это вызывает много вопросов о будущем авторского права и ответственности за выводы искусственного интеллекта.
Один из самых громких случаев произошёл в США в мае 2023 года. Адвокат Стивен Шварц из нью-йоркской фирмы Levidow, Levidow & Oberman подал иск против авиакомпании Avianca и процитировал в документах шесть судебных прецедентов. Судья Кевин Кастель запросил оригиналы решений — и выяснилось, что все шесть дел выдуманные. Их сгенерировал ChatGPT: несуществующие судьи, вымышленные номера дел и цитаты. Адвокат заявил, что не знал о способности ИИ галлюцинировать. В итоге его и фирму оштрафовали на $5000, обязали пройти курсы по этике и ИИ, а дело стало первым публичным предупреждением о рисках использования генеративного ИИ в судах.
Другой прецедент произошел в Китае в 2023–2024 годах: суд отклонил иск о клевете, в котором истец использовал генеративный для составления заявления. Текст содержал ссылки на несуществующие статьи закона и вымышленные прецеденты. Судья отметил в решении, что «использование генеративного ИИ без проверки недопустимо». Это дело ускорило введение правил: в 2024 году Верховный народный суд КНР запретил применять ИИ в судебных документах без обязательной человеческой верификации. Случай показал, что даже в стране-лидере по внедрению ИИ в правосудие галлюцинации нейросетей могут привести к полному провалу дела.
Последние новости

вчера 18:46 В Саратове с 13 апреля ограничат доступ к двум зонам Городского парка- вчера 17:50 15 тысяч штрафа за задержку алиментов: в Энгельсе наказали предпринимательницу
- вчера 17:32 В Саратовской области выходили девочку с весом 1 кг
- вчера 17:10 Саратовская бизнес-леди скрыла от казны 59 млн рублей

вчера 17:00 На трассе «Самара - Волгоград» в 2028 году отремонтируют три участка за 1,7 млрд рублей- вчера 16:36 В Новоузенской школе нашли нарушения в школьном питании
- вчера 16:15 За две недели охоты в Саратовской области поймали 109 нарушителей
- вчера 16:08
Энергетики присоединились к городским мероприятиям по благоустройству

вчера 15:50 «Обновил» авто за чужой счёт: саратовец украл колёса с «Газели»- вчера 15:30 Женщины в Саратовской области стали реже совершать преступления
- загрузить еще