KFN Haberleri: Hukukta Yapay Zeka Skandalı: Sahte Hukuki İçtihatlar Krizi
Yapay zeka araçlarının hukuk alanında kullanılması, verimliliği artırma potansiyeli taşısa da, 2023 yılında New York'ta yaşanan bir dizi skandalla birlikte etik ve mesleki sorumluluk açısından ciddi sorunları gün yüzüne çıkardı. Bu skandal, özellikle büyük dil modellerinin (LLM) hukuki araştırmada kullanılmasıyla ortaya çıkan "halüsinasyon" (uydurma bilgi üretme) riskini somutlaştırmıştır.Skandalın Merkezindeki Olay: Mata - Avianca Davası
Skandalın en bilinen ve en çarpıcı örneği, New York Güney Bölge Mahkemesi'nde görülen Mata v. Avianca, Inc. davasıdır.Olayın Gelişimi
- Arka Plan: Davacı Roberto Mata, Avianca Havayolları'na karşı açtığı kişisel yaralanma davasında, avukatları Steven Schwartz ve Peter LoDuca, hukuki argümanlarını desteklemek için yapay zeka araştırma aracı olarak ChatGPT'yi kullandılar.
- Halüsinasyon: Schwartz, ChatGPT'den elde ettiği içtihatları (daha önceki mahkeme kararları) herhangi bir doğrulama yapmadan mahkemeye sundu. Ancak bu içtihatlar (örneğin, Varghese v. China Southern Airlines, Shaboon v. EgyptAir vb.) tamamen uydurmaydı ve hiçbir zaman var olmamıştı. ChatGPT, var olmayan davalara ait olmayan alıntılar ve olay özetleri uydurmuştu.
- Ortaya Çıkışı: Karşı tarafın avukatları ve mahkeme, sunulan kararları veri tabanlarında aradığında bulamadılar. Bunun üzerine yargıç P. Kevin Castel, avukatlardan, bu kararların kopyalarını sunmalarını istedi. Avukat Schwartz, mahkemeye "Bu vakaları kendim doğrulamak için harcadığım çabadan derinden pişmanım" şeklinde bir yeminli ifade sundu ve ChatGPT'nin "gerçeklik garanti edilir" dediğine dair bir ekran görüntüsü paylaştı.
Mahkemenin Kararı ve Yaptırımlar
Yargıç Castel, 22 Haziran 2023'te verdiği kararla hem Schwartz'a hem de LoDuca'ya ağır yaptırımlar uyguladı. Yargıç, avukatların sahte içtihatları mahkemeye sunarak "iyi niyetle avukatlık yapma" ilkesini ihlal ettiğini ve mahkemeye karşı dürüst davranma görevini yerine getiremediğini belirtti.- Para Cezası: Avukatlara para cezası verildi ve bu cezanın bir kısmını Avianca'nın avukatlık masraflarını karşılamak için kullanılmasına karar verildi.
- Kamuoyu Önünde İfşa: En önemlisi, mahkeme kararı kamuoyuna açıklandı ve avukatların isimleri mesleki kayıtlarına işlendi.
Skandalın Hukuk Dünyasına Etkileri
Bu olay, yapay zekanın hukuki araştırmada kullanımı konusunda üç temel alanda acil reform ihtiyacını ortaya çıkardı:1. Halüsinasyon Riski ve Doğrulama Zorunluluğu
Generatif yapay zeka modelleri, insan dilini taklit etmek üzere eğitilmiştir, gerçeği söylemek üzere değil. Bu nedenle, bilmedikleri bir bilgi istendiğinde, en olası görünen uydurma bilgiyi üretme eğilimi gösterirler. Hukukta, bir içtihadın varlığı bir gerçektir ve uydurma bir vaka sunmak, mahkemeye yalan beyanda bulunmakla eşdeğerdir.2. Yargının Tepkisi: Yeni Kurallar
Skandalın ardından birçok yargı dairesi ve federal bölge mahkemesi, yapay zeka kullanımına ilişkin yeni kurallar getirmeye başladı. Bu kuralların çoğu, avukatların mahkemeye sunduğu yapay zeka destekli materyallerin insan tarafından doğrulandığına dair yeminli bir beyan (sertifika) imzalamasını zorunlu kılmaktadır.3. Mesleki Sorumluluk ve Etik
Barolar ve etik kurulları, yapay zeka kullanımının mesleki sorumluluk (malpraktis) kapsamında nasıl değerlendirileceğini tartışmaya başladı. Bir avukatın, temel hukuki araştırmayı dahi doğrulamadan mahkemeye sunması, açık bir ihmal olarak kabul edilmektedir. Bu olay, teknolojinin hızı karşısında dahi, avukatların temel mesleki görevlerinin (doğruluk, dürüstlük ve yeterlilik) değişmediğini kesin bir şekilde göstermiştir.Özet
Hukukta yapay zeka skandalı, teknolojinin bir devrim aracı olabileceğini ancak insan denetimi olmadan bir risk aracı haline geldiğini kanıtlamıştır. Gelecekte, hukuki profesyonellerin yapay zekayı bir yardımcı olarak kullanması beklenirken, nihai sorumluluğun her zaman insan avukatta kalacağı kesindir.Sizce yapay zeka araçlarını kullanan avukatlara uygulanan yaptırımlar adil miydi? Hukukta yapay zeka kullanımının sınırları ne olmalı? Düşüncelerinizi yorumlarda paylaşın!