Как сообщает газета New York Times, в деле против колумбийской авиакомпании Avianca, защитник пострадавшего от авиаперевозчика пассажира Стивен А. Шварц из фирмы Levidow, Levidow & Oberman при подготовке иска обратился к чат-боту ChatGPT, который в качестве доказательств привел поддельные судебные решения с вымышленными цитатами и несуществующими ссылками. Такприводились шесть похожих случаев судебных процессов, которых на самом деле не происходило, выяснила сторона ответчика.
После обнаружения фальсификации Стивен Шварц, который занимается юридической практикой в Нью-Йорке в течение трех десятилетий, сказал, что у него не было намерения вводить суд в заблуждение. Адвокат впервые использовал ChatGPT и не знал о том, что приводимые программой факты могут быть ложными.
Судья назначил слушание на следующий месяц, чтобы обсудить возможные санкции для адвоката, доверившего свое дело искусственному интеллекту.
Ранее «Телеспутник», сообщал, что российский технологический университет МИРЭА предложил Минцифры ввести маркировку контента, созданного с помощью нейросетей. Также университет предложил подготовить программу защиты критически важных инфраструктур от возможных кибератак с использованием искусственного интеллекта.