Yapay Zekanın Hataları İnsan Hatalarından Çok Daha Tuhaf

İnsanlar her zaman hata yapar. Hepimiz yeni ya da rutin işlerimizde bunu günlük olarak yaparız. Hatalarımızın bazıları küçüktür, bazıları ise felaket niteliğindedir. Bu hatalar arkadaşlarımızın güvenini sarsabilir, patronlarımızın güvenini kaybetmemize neden olabilir ve bazen de yaşam ile ölüm arasındaki farkı yaratabilir. Binlerce yıldır, yaygın insan hatalarının üstesinden gelmek için güvenlik sistemleri geliştirdik. Günümüzde, kumarhaneler uzun süreli görevlerden kaynaklanan hataları önlemek için düzenli olarak krupiyerlerini değiştirirler. Hastane personeli ameliyat öncesinde vücudun doğru yerine işlemin yapıldığından emin olmak için uzuvlara yazar ve içerde alet kalmaması için cerrahi aletleri sayar. Düzenleme, çift girişli muhasebe, temyiz mahkemeleri gibi çeşitli yollarla insan hatalarını düzeltmede ustayız. Şimdi, insanlık topluma tamamen farklı bir hata yapma türünü hızla entegre ediyor: yapay zeka. Büyük dil modelleri (LLM'ler) gibi teknolojiler, geleneksel olarak insan tarafından yapılan birçok bilişsel görevi gerçekleştirebiliyor ancak birçok hata da yapıyorlar. Sohbet robotları taş yemeği veya pizzaya yapıştırıcı eklemeyi önerdiğinde bu saçma görünüyor.

pexels'den

İnsan Hataları ve Yapay Zeka Hataları

Yaşam deneyimleri, insanların ne zaman ve nerede hata yapacaklarını tahmin etmemizi kolaylaştırır. İnsan hataları genellikle kişinin bilgisi sınırında olur: çoğumuz türev problemi çözerken hata yaparız. İnsan hatalarının kümeleneceğini bekleriz: türevdeki bir hata genellikle başka hatalarla birlikte gelir. Yorgunluk ve dikkat dağınıklığı gibi faktörlere bağlı olarak hataların artıp azalacağını tahmin ederiz. Hatalar genellikle bilgisizlikle birlikte gelir; türevde hata yapanlar türevle ilgili sorulara "bilmiyorum" yanıtını da verirler. Yapay zeka sistemleri bu insan benzeri hataları yaptığı sürece, hata düzeltme sistemlerimizi onların çıktısını etkilemek için kullanabiliriz. Ancak mevcut yapay zeka modelleri, özellikle hukuk yüksek lisansı modelleri, farklı şekilde hata yapar. Yapay zeka hataları, görünüşe göre rastgele zamanlarda ortaya çıkar ve özel konulara odaklanmaz. Hukuk yüksek lisansı modeli hataları, bilgi alanı boyunca daha eşit dağılma eğilimindedir. Türevde hata yapma olasılığı, lahananın keçi yemesi önerisine benzer olabilir. Yapay zeka hataları bilgisizlikle gelmez. Hukuk yüksek lisansı modeli, tamamen yanlış bir şeyi ifade ederken - insanların açıkça anladığı gibi - doğru bir şeyi ifade ederken olduğu kadar kendinden emin olabilir. Bu görünürdeki rastgelelik, hukuk yüksek lisansı modellerinin karmaşık, çok aşamalı problemlerdeki mantığını güvenilmez yapar.

pexels'den

Yapay Zeka Hatalarıyla Nasıl Baş edilir?

Bu durum, iki potansiyel araştırma alanına işaret ediyor. Birincisi, hukuk yüksek lisansı programlarına daha insan benzeri hatalar yaptırma mühendisliğidir. İkincisi, hukuk yüksek lisans öğrencilerinin yapma eğiliminde olduğu belirli hata türlerini ele almak için yeni hata düzeltme sistemleri geliştirmektir. Hukuk yüksek lisansı öğrencilerinin daha insan gibi davranmasını sağlayan bazı araçlar zaten var. Bu araçların birçoğu, modellerin insan geliştiricilerin hedefleri ve motivasyonlarına göre çalışmasını sağlamayı amaçlayan "hizalama" araştırması alanından çıkmaktadır. ChatGPT'nin başarısına atfedilen bir teknik örneği: insan geri bildirimi ile pekiştirmeli öğrenme. Bu yöntemde, bir yapay zeka modeli, insan değerlendiricilerin onayını alan yanıtlar ürettiği için "ödüllendirilir". Benzer yaklaşımlar, yapay zeka sistemlerini, özellikle daha az belirgin hataları daha ağır cezalandırarak, insan benzeri hatalar yapmaya teşvik edebilir. Yapay zeka hatalarını tespit etmeye gelince, insan hatalarını önlemek için kullandığımız sistemlerin bazıları yardımcı olacaktır. Hukuk yüksek lisansı öğrencilerini çalışmalarını yeniden gözden geçirmeye zorlamak bir dereceye kadar hataları önleyebilir. Ancak mantıktan sapmaları haklı göstermek için makul ama saçma açıklamalar da kurgulayabilirler. Diğer yapay zeka hata hafifletme sistemleri ise insanlar için kullanılan hiçbir şeye benzemez.

pexels'den

Benzerlikler ve Farklılıkları Anlamak

Araştırmacılar, hukuk yüksek lisans öğrencilerinin hatalarının insan hatalarından nasıl farklılaştığını anlamaya çalışıyorlar. Bazı yapay zeka tuhaflıkları, ilk bakışta göründüğünden daha insan gibi olabilir. Bir hukuk yüksek lisansı öğrencisinin sorgusunda yapılacak küçük değişiklikler, tamamen farklı yanıtlar vermesine neden olabilir; bu sorun, anlık yanıt duyarlılığı olarak bilinir. Ancak herhangi bir anket araştırmacısının size söyleyebileceği gibi, insanlar da bu şekilde davranırlar. Anket sorusunun kelime yapısı, yanıtlar üzerinde derin etkiler yaratabilir. Derin öğrenme programları ayrıca, en yaygın kelimeleri eğitim verilerinden tekrar etme eğilimindedir; örneğin, daha olağandışı mekanlar hakkında sorulduğunda bile "Amerika" gibi tanıdık yer adlarını tahmin eder. Bu, makinelerin soruyu düşünmek yerine akıllarına ilk geleni çıkardıkları, insanların "mevcudiyet yanlılığı"nın derin öğrenmede zuhur etmesi olabilir. İnsanlar gibi, derin öğrenme programları da uzun belgelerde dikkatlerini kaybetme eğilimindedirler; baştan sona kadar olan olguları hatırlamada daha iyidirler. Araştırmacılar, uzun metinlerden bilgi alımı örnekleriyle eğitilmiş derin öğrenme programlarının daha tutarlı bilgi hatırlamada daha iyi olduklarını buldukça, bu hata düzenini düzeltme yolunda ilerleme kaydediliyor. Bazı durumlarda, derin öğrenme programlarının garip yanı, düşündüğümüzden daha insan gibi davranmalarıdır. İlginç bir şekilde, en iyi yapay zeka "hapisten kaçırma" teknikleri, onları yaratıcılarının açık talimatlarına meydan okumaya yol açanlar, insanların birbirlerine karşı kullandıkları sosyal mühendislik numaralarına benzer: örneğin, başka biri gibi davranmak ya da bir talebin sadece bir şaka olduğunu iddia etmek gibi. Ancak, diğer etkili hapisten kaçırma teknikleri hiçbir insanı aldatamaz."

SON HABERLER