29 Mayıs 2023

Geoffrey Hinton, Yapay Zekâ ve Google’ın Etik Sorunu

geoffrey-hinton-yapay-zekâ-ve-googlein-etik-sorunu

Geoffrey Hinton, Yapay Zekâ ve Google’ın Etik Sorunu – Binoy Kampmark

Yapay zekâ geliştirme söz konusu olduğunda Google'ın kesinlikle bir etik sorunu olduğu söylenebilir. Şirket, konuyla ilgili iç tartışmaları susturma konusunda oldukça hevesli davrandı. Google'ın 2017 yılında kurduğu Etik Yapay Zekâ ekibinin eski üyesi Margaret Mitchell, aynı ekibin bir üyesi olan Timnit Gebru'nun işten çıkarılmasıyla ilgili bir iç soruşturma yürüttükten sonra görevden alındı.

Yapay zekânın gerçek ya da hayali tehlikeleri hakkındaki konuşmalar, büyük bir kısmı üretken [generative] sohbet botlarının büyüyen dünyası tarafından tetiklenen ateşli bir hâl aldı. Eleştirmenleri incelerken motivasyonlarına dikkat edilmelidir. Belirli bir duruşu benimsemekten ne kazanıyorlar? “Yapay zekânın manevi babası” olarak görülen Geoffrey Hinton söz konusu olduğunda, yapılan incelemenin çoğu kişiden daha keskin olması gerekir.

Hinton, insan beynini ve daha geniş anlamda insan davranışını taklit eden sinir ağlarını öngören ve bir zamanlar gözden düşmüş olan yapay zekâ alanındaki “bağlantıcı” [connectionist] düşünce ekolünden gelmektedir. Bu görüş, makine tarafından yönetilen yapay zekâya, belirli sembollerin ve kuralların korunmasına odaklanan “sembolistler” ile çelişmektedir.

Financial Times’a yazan John Thornhill, bağlantıcı kabilenin diğer üyeleriyle birlikte Hinton’ın yükselişine dikkat çekiyor: “Bilgisayarlar daha güçlü hâle geldikçe, veri setlerinin boyutu büyüdükçe ve algoritmalar daha sofistike hâle geldikçe, Hinton gibi derin öğrenme araştırmacıları, ana akım yapay zekâ topluluğu tarafından artık göz ardı edilemeyecek kadar etkileyici sonuçlar üretebildiler.”

Zamanla derin öğrenme sistemleri moda oldu ve büyük teknoloji dünyası Hinton gibi isimleri arar oldu. Hinton, meslektaşlarıyla birlikte Google, Facebook, Amazon ve Microsoft’un zirvelerinde absürt maaşlar almaya başladı. Hinton Google’da başkan yardımcısı ve üst düzey uzman mühendis olarak görev yaptı.

Hinton’un Google’dan ayrılması ve özellikle de Google Brain1 ekibinin başındaki rolü, spekülasyon çarkının dönmesine neden oldu. Bir görüşe göre bu ayrılık, yıllardır başarılarına katkıda bulunduğu şirketi eleştirebilmek için gerçekleşti. Hinton’un üretken yapay zekâ arabasını itmedeki kendi rolü göz önüne alındığında, bu durum kesinlikle biraz ilginçti. Hinton 2012 yılında, resimlerdeki yaygın nesneleri önemli bir doğrulukla tanımlayabilen, kendi kendini eğiten bir sinir ağına öncülük etti.

Zamanlaması da ilgi çekicidir. Bundan bir ay kadar önce, Yaşamın Geleceği Enstitüsü (Future of Life Institute) tarafından OpenAI’ın GPT-4 ve diğer benzer sistemlerin kötülüğünün ötesinde yapay zekanın korkunç etkileri konusunda uyarıda bulunan bir açık mektup yayımlandı. Bir dizi soru ortaya atıldı: “Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı haberlerle doldurmasına izin vermeli miyiz?  Tatmin edici olanlar da dâhil olmak üzere tüm işleri otomatikleştirmeli miyiz? Eninde sonunda sayıca üstün, akıllı, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler mi geliştirmeliyiz? Uygarlığımızın kontrolünü kaybetme riskini göze almalı mıyız?”

Bu tür büyük ölçekli yapay zekâ projelerinin geliştirilmesine altı ay ara verilmesi çağrısında bulunulan mektupta, uyarıların değerini bir nebze azaltan bazı isimler yer aldı; sonuçta imzacıların çoğu otomasyon yaratımı, teknolojik eskimeyi ve “uygarlığımızın kontrolünü kaybetmesini” teşvik etmede göz ardı edilemeyecek bir rol oynamıştı. Bu bağlamda, Elon Musk ve Steve Wozniak gibi isimler teknolojik gelişmelere ara verilmesi çağrısında bulunan bir projeye imza attıklarında, dünyanın dört bir yanındaki saçmalık dedektörleri harekete geçmelidir.

Aynı ilkeler Hinton için de geçerli olmalıdır. Belli ki başka meralar arıyor ve bunu yaparken de kendi reklamını yapıyor. Bu, yaratılmasından sorumlu olduğu şeyin hafifçe kınanması şeklini alıyor: “Bu şeyin insanlardan daha akıllı olabileceği fikri… Birkaç kişi buna inandı. Ama çoğu insan bunun çok yanlış olduğunu düşünüyordu. Ben de çok yanlış olduğunu düşünüyordum. […] Açıkçası artık böyle düşünmüyorum.” Onun bunu herkesten daha iyi bilmesi gerektiğini düşünebilirsiniz.

Hinton, Twitter hesabından yaptığı açıklamada, Google’dan kırgın ayrıldığına ya da Google’ın faaliyetlerini karalamak gibi bir niyeti olduğuna dair iddialara son noktayı koydu. “Bugün NYT’de (New York Times) Cade Metz, Google’ı eleştirmek için Google’dan ayrıldığımı ima ediyor. Aslında, bunun Google’ı nasıl etkilediğini düşünmeden yapay zekanın tehlikeleri hakkında konuşabilmek için ayrıldım. Google çok sorumlu davrandı.”

Bu tuhaf akıl yürütme biçimi, yapay zekâya yönelik herhangi bir eleştirinin, bu tür projeleri geliştiren ve bunlardan kâr elde eden şirketlerden bağımsız olarak var olacağını ve Hinton gibi geliştiricileri herhangi bir suç ortaklığı suçlamasından muaf tutacağını öne sürüyor. Hinton’ın yapay zekâya yönelik eleştiri geliştirmekten ya da Google’ın kendi içinde düzenleyici çerçeveler önermekten aciz görünmesi, bu hamlenin samimiyetinin altını oyuyor.

Google DeepMind’ın baş bilim insanı ve başkanı Jeff Dean, uzun süredir birlikte çalıştığı meslektaşının ayrılışına tepki gösterirken, herkesi memnun edecek şekilde suların durulduğunu açıkladı: “Geoff yapay zekâ alanında temel atılımlar gerçekleştirdi ve Google’a yaptığı on yıllık katkıları takdirle karşılıyoruz […] Yapay Zekâ İlkelerini (AI Principles) yayımlayan ilk şirketlerden biri olarak, yapay zekâ konusunda sorumlu bir yaklaşım benimsemeye devam ediyoruz. Ortaya çıkan riskleri anlamak için sürekli öğreniyor ve aynı zamanda cesurca yenilikler yapıyoruz.”

Yapay zekâ topluluğundaki birtakım kişiler başka bir şeylerin döndüğünü hissetti. Bilgisayar bilimcisi Roman Yampolskiy, Hinton’un sözlerine yanıt olarak, Yapay Zekâ Güvenliği (AI Safety) ile ilgili kaygıların kurum içindeki araştırmalardan bağımsız olmadığını ve olmaması gerektiğini dikkatle söyledi: “Bir yapay zekâ araştırmacısı olarak işinizi bırakmak zorunda kalmadan yapay zekâ güvenliği ile ilgilenmeyi normalleştirmeliyiz.”

Yapay zekâ geliştirme söz konusu olduğunda Google’ın kesinlikle bir etik sorunu olduğu söylenebilir. Şirket, konuyla ilgili iç tartışmaları susturma konusunda oldukça hevesli davrandı. Google’ın 2017 yılında kurduğu Etik Yapay Zekâ ekibinin eski üyesi Margaret Mitchell, aynı ekibin bir üyesi olan Timnit Gebru’nun işten çıkarılmasıyla ilgili bir iç soruşturma yürüttükten sonra görevden alındı.

Gebru, devasa miktarlarda veriyle eğitilmiş ve beslenmiş yapay zekanın kullanılmasından kaynaklanan tehlikelere dikkat çeken bir çalışmanın ortak yazarlığını yaptıktan sonra Aralık 2020’de görevden alındı. Hem Gebru hem de Mitchell, alandaki çeşitliliğin göze çarpan eksikliği konusunda da eleştirel bir tutum sergilemişlerdir ve bu alanı “erkekler denizi” [sea of dudes] olarak tanımlamışlardır.

Hinton’ın kendi felsefi ikilemlerine gelince, bunlar sofistike olmaktan uzaktır ve uykusunu kaçırmaları pek olası değildir.  Şimdi uyardığı canavarın yaratılmasında oynadığı Frankenstein rolü ne olursa olsun, uykusunun bölünmesi pek olası değil. Hinton New York Times’a yaptığı açıklamada “Kendimi her zamanki bahaneyle avutuyorum: Ben yapmasaydım başkası yapardı” dedi. “Kötü aktörlerin bunu kötü şeyler için kullanmasını nasıl engelleyebileceğinizi görmek zor.”

Dipnot:

[1] Google Brain, Google AI altında derin öğrenme yapay zekâsı üzerine çalışmalar yapan bir bölüm.

[countercurrents.org’daki İngilizce orijinalinden Erdoğan Can tarafından Sendika.Org için çevrilmiştir.]

Düzelti: Müge Okur

Yapay zekâ tartışmaları ile ilgili daha detaylı okumalar için Scala Yayınları’ndan çıkan kitapları inceleyebilirsiniz.

T-Soft E-Ticaret Sistemleriyle Hazırlanmıştır.