В недавнем судебном процессе в Аризоне произошел прецедент, который может изменить подход к использованию технологий в зале суда. Семья жертвы, 37-летнего ветерана армии Криса Пелки, использовала искусственный интеллект для создания глубокого фейка, который позволил покойному "высказаться" о последствиях его убийства. Это видео было показано во время слушания по делу об убийстве и выглядело и звучало как сам Пелки.
Согласно материалам дела, Пелки был убит в результате дорожного конфликта в ноябре 2021 года. Убийца, Габриэль Хоркаситас, был признан виновным в непредумышленном убийстве и приговорен к 9,5 годам тюремного заключения. Однако после показа видео с глубоким фейком судья увеличил срок наказания на один год, что подчеркивает эмоциональное воздействие таких технологий на судебные решения.
Использование глубоких фейков в судебных процессах вызывает множество вопросов. С одной стороны, это может помочь передать эмоции и переживания жертвы, с другой — ставит под сомнение справедливость и объективность судебного разбирательства. Исследования показывают, что эмоциональные обращения, такие как заявления о воздействии на жертву, могут значительно повлиять на решения присяжных и судей, что может привести к неравным наказаниям.
Судебная система традиционно стремится к тому, чтобы решения основывались на фактах, а не на эмоциях. Однако использование технологий, таких как глубокие фейки, может подорвать этот принцип, создавая риск, что чувства будут преобладать над разумом в процессе вынесения приговора.
Вопрос о допустимости глубоких фейков в суде остается открытым. Является ли это шагом вперед в использовании технологий для достижения справедливости или же опасным прецедентом, который может привести к манипуляциям и неравенству в судебной системе? Время покажет, как будут развиваться эти технологии и их применение в правосудии.