Draqon
Aktif Üye
RightsCon: Gerçek AI Riskleri Hakkında Konuşma Zamanı
Haziran ayının başında, dünyanın en büyük dijital haklar konferansı olan RightsCon düzenlendi. Birkaç yıl süren sanal tartışmalardan sonra, önde gelen internet etik uzmanları, aktivistler ve politika yapıcılar, Kosta Rika’da yeniden bir araya geldi.
Şaşırtıcı olmayan bir şekilde, herkes yapay zekadan (AI) ve son zamanlarda büyük dil modellerine yapılan hücumdan bahsediyordu. Konferans öncesinde Birleşmiş Milletler, katılımcıları AI gözetimi ve şeffaflığına odaklanmaya çağıran bir bildiri yayınladı. Ancak şaşırtıcı olan, RightsCon’daki üretici yapay zekanın riskleri hakkındaki tartışmaların, haberlerdeki büyük Silikon Vadisi seslerinden gelen tüm uyarılardan ne kadar farklı olduğuydu.
Son haftalarda, OpenAI CEO’su Sam Altman, eski Googler Geoff Hinton, üst düzey yapay zeka araştırmacısı Yoshua Bengio, Elon Musk ve diğerleri gibi teknoloji uzmanları, “varoluşsal riskleri” -insanın yok olma noktasına kadar- ele almak için düzenleme ve acil eylem çağrısında bulundular. — AI’nın insanlık için temsil ettiği şeyle savaşmak için.
Kurumsal yapay zeka altına hücum
Risk değerlendirmeleri, eğitim verilerinin ve süreçlerinin açıklanması ve hatta teknolojinin nasıl kötüye kullanılabileceğine çok fazla dikkat edilmeden büyük dil modellerinin hızlı bir şekilde konuşlandırılması kesinlikle endişe vericidir. Bununla birlikte, RightsCon’daki çeşitli panellerde konuşmacılar, bu yapay zeka altına hücumunun kurumsal kâr arayışının bir ürünü olduğunu ve bunun düzenleyici beceriksizlik veya teknolojik kaçınılmazlıktan kaynaklanmadığını yineledi.
Daha ilk oturumda, Wired’ın genel yayın yönetmeni ve US Technology Review’un eski genel yayın yönetmeni Gideon Lichfield ve Digital Futures Lab’ın kurucusu Urvashi Aneja, Google’ın Kent Walker’ıyla yumruklaştı. “Microsoft’tan Satya Nadella, Google’ı dans ettirmek istediğini söyledi. Ve Google dans etti,” dedi Lichfield. “Şimdi hepimiz boşluğa atlıyoruz ve burnumuzu tutuyoruz çünkü bu iki şirket birbirini geçmeye çalışıyor.” Walker yanıtında, yapay zekadaki ilerlemelerin uyuşturucu keşfi gibi alanlarda getirebileceği sosyal faydaları vurguladı ve Google’ın insan haklarına olan bağlılığını yeniden teyit etti.
Ertesi gün, yapay zeka araştırmacısı Timnit Gebru, yapay zekanın varoluşsal riskleriyle ilgili konuşmalara doğrudan değindi: “Temsilciliği bir araca atfetmek bir hatadır ve bu bir tehlike işaretidir. Ve kimin böyle konuştuğunu gördüğünüzde, bu şirketlere milyarlarca dolar akıtanların kelimenin tam anlamıyla aynı kişiler olduğunu görürsünüz.”
Bugün gerçek hasar
Gebru şöyle devam etti: “Sadece birkaç ay önce Geoff Hinton, GPT-4’ten ve onun nasıl dünyanın kelebeği olduğundan bahsetti. ‘Ah, verileri alan ve sonra güzel bir kelebeğe dönüşen bir tırtıla benziyor’ ve şimdi aniden varoluşsal bir risk yani insanlar neden bu insanları ciddiye alıyorlar?
İnsan Hakları İzleme Örgütü’nün teknoloji ve insan hakları direktörü Frederike Kaltheuner gibi yapay zeka hakkındaki anlatılardan bıkan uzmanlar, ne olabileceği hakkında spekülasyon yapmak yerine yapay zeka ile ilişkili olduğunu zaten bildiğimiz riskleri ele almayı öneriyor. Aslında, AI’nın mevcut kullanımından kaynaklanan bazı açık, iyi belgelenmiş zararlar var. Bazı örnekler:
- Artan ve Güçlendirilmiş Yanlış Bilgi: Instagram, Twitter ve YouTube gibi sosyal medya platformlarındaki öneri algoritmalarının, doğruluğundan bağımsız olarak aşırı ve duygusal açıdan çekici içeriğe öncelik verdiği gösterilmiştir. Büyük dil modelleri, “halüsinasyonlar” olarak bilinen ikna edici yanlış bilgiler üreterek bu soruna katkıda bulunur.
Kaltheuner özellikle psikoterapi gibi riskli bağlamlarda üretken yapay zeka sohbet robotlarının kullanımına karşı uyarıda bulunuyor: “Teknolojinin basitçe tasarlanmadığı veya uygun olmadığı şeyler için üretken yapay zekanın kesinlikle dikkate alınmayan kullanım durumları konusunda endişeleniyorum.”
Gebru, zorlu büyük dil modellerini çalıştırmak için gereken bilgi işlem gücünün büyük güç taleplerinin çevresel etkisine ilişkin endişelerini yineledi. Dahili soruşturmalarda bu ve diğer endişeleri dile getirdiği için Google tarafından kovuldu. Ek olarak, ChatGPT’nin düşük ücretli moderatörleri, modellerin zehirli harcamalarını azaltmak için yaptıkları çalışmalarla travma sonrası stres sendromu da yaşadılar.
Kaltheuner, insanlığın geleceğine ilişkin kaygılarla ilgili olarak şunu soruyor: “Kimin yok oluşu? Tüm insan ırkının yok olması mı? Tarihsel olarak marjinalize edilmiş insanların incindiğini şimdiden görüyoruz. Bu yüzden bunu biraz alaycı buluyorum.
(vsz)
Haberin Sonu