img29 мая 2023 в 14:49

ChatGPT подготовил фейковые доказательства для судебного процесса

В США Адвокат Стивен Шварц из компании Levidow, Levidow & Oberman может попасть под суд из-за использования чат-бота ChatGPT в своем деле. При рассмотрении иска к авиакомпании адвокат использовал несуществующие факты, выдуманные генеративным искусственным интеллектом.

В США Адвокат Стивен Шварц из компании Levidow, Levidow & Oberman может попасть под суд из-за использования чат-бота ChatGPT в своем деле. При рассмотрении иска к авиакомпании адвокат использовал несуществующие факты, выдуманные генеративным искусственным интеллектом.

Как сообщает газета New York Times, в деле против колумбийской авиакомпании Avianca, защитник пострадавшего от авиаперевозчика пассажира Стивен А. Шварц из фирмы Levidow, Levidow & Oberman при подготовке иска обратился к чат-боту ChatGPT, который в качестве доказательств привел поддельные судебные решения с вымышленными цитатами и несуществующими ссылками. Такприводились шесть похожих случаев судебных процессов, которых на самом деле не происходило, выяснила сторона ответчика.

После обнаружения фальсификации Стивен Шварц, который занимается юридической практикой в Нью-Йорке в течение трех десятилетий, сказал, что у него не было намерения вводить суд в заблуждение. Адвокат впервые использовал ChatGPT и не знал о том, что приводимые программой факты могут быть ложными.

Судья назначил слушание на следующий месяц, чтобы обсудить возможные санкции для адвоката, доверившего свое дело искусственному интеллекту. 

Ранее «Телеспутник», сообщал, что российский технологический университет МИРЭА предложил Минцифры ввести маркировку контента, созданного с помощью нейросетей. Также университет предложил подготовить программу защиты критически важных инфраструктур от возможных кибератак с использованием искусственного интеллекта.

Подписка на рассылку

Подпишитесь на рассылку, чтобы одним из первых быть в курсе новых событий