Недавний случай в суде Алабамы стал ярким примером того, как использование искусственного интеллекта может привести к серьезным последствиям в юридической практике. Адвокаты из юридической фирмы Butler Snow использовали ChatGPT для подготовки двух судебных документов, не проверив предоставленные ИИ ссылки. В результате в документах оказались вымышленные цитаты, что вызвало недовольство судьи.
Судья Анна Манаско потребовала от адвокатов объяснений, и они признали свою ошибку, отметив, что использование ИИ без должной проверки было недопустимо. Адвокаты извинились за небрежность и потраченное время как суда, так и противоположной стороны. Они подчеркнули, что не имели намерения вводить в заблуждение, но допустили серьезный просчет в своей работе.
Фирма Butler Snow уже давно предупреждала своих сотрудников о рисках, связанных с использованием больших языковых моделей, таких как ChatGPT, и подчеркивала необходимость проверки всех источников. В ответ на инцидент они решили усилить обучение сотрудников и разработать новую политику по использованию ИИ в юридической практике.
Фирма также попросила суд учесть, что их клиент не был вовлечен в данное происшествие и не должен подвергаться санкциям. Они выразили готовность предоставить исправленные документы с корректными ссылками и уверили, что подобные ошибки не повторятся в будущем.
Этот случай подчеркивает важность внимательности и ответственности при использовании технологий в юридической сфере. В условиях стремительного развития ИИ адвокатам необходимо помнить о своих этических обязанностях и проверять информацию, прежде чем представлять ее в суде.