Geçen hafta dünya genelinde uçuşları, ameliyatları, finansal işlemleri ve hatta market alışverişi gibi gündelik hizmetlerin bile sarkmasına neden olan ciddi bir bilişim krizi yaşadık.
Siber güvenlik firması CrowdStrike’ın Microsoft cihazlara hatalı bir güncelleme görmesiyle ilk tahminlere göre 8 milyondan fazla cihaz mavi ekran (blue screen of death) verdi.
Uzmanlar özellikle bulut bilişim ve siber güvenlik hizmetlerindeki tekelleşmenin sistemi savunmasız kıldığını söylerken, gözler bir sonraki olası kaosun nereden patlak vereceğinde.
Şimdiden birçok uzman ve yorumcu, 2022’de OpenAI firmasının ChatGPT sohbet botunu yayımlamasıyla birlikte ciddi bir yarışın başladığı ve güvenlik risklerinin giderek daha fazla konuşulduğu yapay zeka sektörüne işaret ediyor.
YAPAY ZEKA YARIŞI NASIL GÜVENLİK AÇIĞI YARATIYOR?
Bugün tıpkı CrowdStrike olayında olduğu gibi pek çok markanın sistemleri ChatGPT tabanlı hizmetler geliştiriyor. OpenAI’ın GPT’lerini kullanan en büyük iki firma Microsoft ve Apple.
Diğer yandan Google da yapay zeka yarışının çok önemli bir aktörü. Google kendi sistemlerinin yanı sıra Antrophic firmasının da Claude dil modellerini destekliyor.
Bu esnada Elon Musk yeni yapay zeka şirketi xAI’ı kurdu. Mark Zuckerberg ise yer yer açık kaynaklı yazılımlar paylaşıp kendi sistemlerine Meta AI asistanlarını entegre etmeye çalışıyor.
Silikon Vadisi’ni birbirine katan bu yarış biz kullanıcılar için çok ciddi güvenlik risklerine neden olabilir.
Örneğin rekabetin yoğun olduğu bu ortamda, şirketler daha hızlı ve daha iyi ürünler sunmaya odaklanırken güvenlik ve gizlilik önlemlerini ihmal edebilir. Aynı zamanda ürünleri daha hızlı biçimde piyasaya sürmek için şirketler bunları yeterince test edemeyebilir. Bu da, hataların ve güvenlik açıklarının ortaya çıkma olasılığını artırır.
Veri güvenliği de yapay zeka yarışının ortaya çıkaracağı önemli bir sorun olabilir. Zira rekabet, şirketleri daha fazla veri toplama ve analiz etmeye itebilir. Bu durum, veri ihlallerine ve kötüye kullanım riskine yol açabilir.
Siber saldırılar için yeni hedefler de yaratabileceği düşünülen yapay zeka teknolojisi etik standartların ihlal edilmesine yol açabileceği için kullanıcı gizliliği ve güvenliği hususlarında sıklıkla gündeme getiriliyor.
Ayrıca yukarıda saydığımız faktörlerin basına yansıdığı bazı somut olaylar da var.
“GPT-4o YETERİNCE TEST EDİLMEDİ”
OpenAI’ın yeni modelleri yeterince denetlemeden piyasaya sürdüğü iddiası aslında bir süredir dile getiriliyor.
Washington Post’un yeni bir haberine göre de OpenAI’ın güvenlik ekibinin üyeleri, GPT-4 O büyük dil modelini yayımlamadan önce “teknolojinin felaket niteliğinde zararlara yol açmasını önlemek için tasarlanmış” testleri aceleyle yapmak zorunda kaldıklarını söylüyor. İddia o ki şirket mayıs ayında bu yeni dil modelini piyasaya sürebilmek için bu testleri aceleyle yürüttü.
Bu noktada akla şu soru geliyor: Peki OpenAI’ın ne acelesi vardı? Bunun cevabı ise Google ile rekabet olabilir.
Hatırlarsanız benzer yenilikleri içeren yeni araçlarını tam da aynı hafta Google da duyurmuştu. Hatta OpenAI, GPT-4 o’yu duyurduğu etkinliği Google’ın önüne geçmek için onun I/O geliştirici konferansından sadece bir gün önceye koymuştu.
Washington Post’a konuşan bir OpenAI çalışanı, “Fırlatmanın güvenli olup olmadığını bilmeden fırlatma sonrası partiyi planladılar. “Biz temelde bu süreçte başarısız olduk” diyor.
OpenAI’DA GÜVENLİK KAVGASI UZUN SÜREDİR DEVAM EDİYOR
OpenAI’daki güvenlik riskleri konusu ilk olarak geçen sene kasım ayında şirketin yüzü ve CEO’su olan Sam Altman’ın kovulması ve 5 günlük bir dramanın ardından geri alınmasıyla gündeme gelmişti.
Yönetim kurulunun açıkladığı tek gerekçe “Altman’ın yönetim kuruluyla iletişim kurarken samimi davranmadığı”ydı. Kurulun Altman’ın liderliğine güvenini kaybettiği söyleniyordu.
Ancak ilerleyen günlerde konuyla ilgili daha birçok iddia ortaya atıldı. Bunlardan biri epey ciddiye alındı: Altman yönetiminde şirketin güvenlik risklerini önemsemediği iddiası.
Daha sonra bu iddiayı doğrulayabilecek birçok gelişme oldu.
Örneğin eski OpenAI yönetim kurulu üyesi Helen Toner, katıldığı bir programda şirketin, Altman’ı neden kovduğunu ilk defa ayrıntılarıyla birlikte anlattı. Toner’ın anlattıklarına göre Altman’ın kovulmasının tekelleşme ve güvenlikle ilgili birkaç nedeni vardı.
Öncelikle Altman, startuplara, özellikle de yapay zeka şirketlerine yatırım yapan OpenAI Startup Fund’ın sahibinin kendisi olduğunu kurula söylememişti. İkinci bir faktör de şirketin güvenlik süreçleri hakkında “birçok kez yanlış bilgi” vermesiydi. Toner aynı zamanda Altman’ın görevden alınmasının nedenlerinden bir diğerinin de iki OpenAI yöneticisinin yönetim kuruluna “psikolojik taciz” vakaları bildirmesi olduğunu söyledi.
MICROSOFT, OpenAI’Yİ ELE Mİ GEÇİRDİ?
OpenAI’da tekelleşmeye işaret eden bir diğer şey, Microsoft’un şirkete müdahil olması. Microsoft, 10 milyar dolarla yapay zeka firmasının en büyük yatırımcısı konumunda. Öte yandan şirketin Altman’ın kovulmasından son dakikada haberi olmuştu. Bu da yönetim kuruluyla yatırımcı arasındaki gerilimi süreç boyunca besledi ve Altman’ın “Microsoft’un adamı” olarak görülmesine sebebiyet verdi. (Zaten Elon Musk da uzun süredir OpenAI’ın Microsoft’un arka bahçesi olduğu eleştirisini yapıyordu). Altman’ın kovulmasından sonraki günlerde yaşananlar bu imajı daha da güçlendirdi.
Bilişim devi, Altman kovulduğunda en güçlü müttefiklerinden birini kaybetmemek için şirket üzerinde baskı kurmak üzere harekete geçti. Microsoft’un CEO’su Satya Nadella, Altman ve ekibine iş teklif etti.
Ayrıca, Altman’ın göreve iade edilmesini talep eden mektuba imza atan 743 çalışana (OpenAI’da 770 çalışan var) kapılarını açtı.
Nadella, o dönemde katıldığı bir podcast yayınında “Sorun para ve sermaye bile değil” ifadelerini kullanıyordu:
“Sam bir kez Microsoft’u seçmişti. Sam ikinci kez de Microsoft’u seçti. Birileri bunun nedenini düşünmeli. Microsoft’un, bu misyona ortaklık etmediği bir OpenAI olamaz.”
Bu gelişmelerin ardından Altman, CEO olarak görevine iade edildi ve eski yönetim kurulu dağıtılıp yenisi oluşturuldu. Microsoft’tan bir temsilci de bu yeni kurulda gözlemci pozisyonunda yer aldı.
Tüm bu süreç şunu gösteriyor: Altman ve müttefiki şirket başkanı Greg Brockman, Altman yeniden göreve getirilmediği takdirde OpenAI’nin en üst düzey yeteneğini Microsoft’a götürerek OpenAI’yi etkili bir şekilde yok etmekle tehdit etmişti. Ve evet bu da şunu göstermişti: Sam Altman şirketin başında kalma uğruna tüm şirketi dağıtmaya kararlıydı.
ILYA’NIN İSTİFASI BİZE NELER ANLATIYOR?
Bu noktada OpenAI’ın arkasındaki beyin olarak görülen yapay zeka araştırmacısı Ilya Sutskever’dan da söz etmek gerekiyor. Ilya şirketin “super-alignment” adı verilen güvenlik biriminin başındaydı. Aynı zamanda Altman’ın kovulması kararında da dahli olan bir yönetim kurulu üyesiydi. Ama kovulmanın ardından yaşanan dramanın sonunda özür dilemek zorunda kalmıştı.
Mayıs ayında GPT-4o’nun yayımlanmasından birkaç gün sonra ise Ilya kesinkes istifa etti ve başında olduğu super-alignment birimi de dağıtıldı.
Ilya’nın istifası sosyal medyada bir spekülasyon dalgasını tetikledi. İlya ne görmüştü? Şirketin baş bilim insanı, insanlığı yok edebilecek bir yapay zeka sistemi yüzünden mi şirketten ayrılıyordu?
Vox’a konuşan kaynaklar ise güvensizliğe işaret etti. İddiaya göre güvenlik odaklı çalışanlar, Altman’a yönelik güvenini kaybetmiş durumda. Adı açıklanmayan bir kaynak, “Bu, domino taşlarının birer birer düşmesi gibi, yavaş yavaş çöken bir güven süreci” dedi.
Yapay zeka politikası ve yönetimi üzerinde çalışan iki OpenAI araştırmacısı da yakın zamanda şirketten ayrılmıştı. Bunlardan biri politika araştırması lideri Cullen O’Keefe’ydi. Daha yetenekli yapay zeka modellerinin tehlikeleri üzerine birkaç makaleye imza atmış olan araştırmacı Daniel Kokotajlo da ayrılmıştı.
Kokotajlo, Vox’a yaptığı açıklamada, “OpenAI, sonunda insan zekasını her alanda aşma hedefiyle giderek daha güçlü yapay zeka sistemlerini eğitiyor. Bu, insanlığın başına gelen en iyi şey olabilir ama aynı zamanda dikkatli davranmazsak en kötüsü de olabilir. “OpenAI’ın yapay genel zekaya yaklaştıkça daha sorumlu davranacağına dair büyük bir umutla şirkete katıldım. Çoğumuz yavaş yavaş bunun olmayacağını anlamaya başladık. OpenAI liderliğine ve onların yapay genel zekayı sorumlu bir şekilde yönetme becerilerine yönelik güvenimi yavaş yavaş kaybettim, bu yüzden istifa ettim” demişti.
ŞİMDİ OpenAI’Yİ KİM DENETLEYECEK?
Ilya’nın istifasıyla şirket super-alignment birimi kapattığını duyurdu. Ilya bu birimi onunla birlikte istifa eden Jan Leike’le birlikte yönetiyordu. Şirket bu birimi Temmuz 2023’te kurmuştu. Sam Altman’ın kovulmasından birkaç ay önce…
Birimin kuruluş duyurusunda “Süper yapay zekanın muazzam gücü aynı zamanda çok tehlikeli de olabilir ve insanlığın güçsüzleşmesine, hatta yok olmasına yol açabilir” deniyordu.
Kısacası birimin amacı, yapay zekanın insanlığa karşı risklerini dengelemekti. Şimdi OpenAI bu birimi kapattıklarını, birimin çalışmalarının şirket genelindeki diğer araştırma çalışmalarına devredileceğini bildirdi. Daha sonra da yeni bir birim kurulması kararlaştırıldı.
Leike ise istifasının ardından yaptığı açıklamada, “Yapay zeka sistemlerini şu anda yaptığımızdan çok daha zekice yönlendirip kontrol etmenin yolunu acilen bulmamız gerekiyor. Bunun için en iyi yerin OpenAI olduğunu düşünmüştüm. Ancak şirketin temel öncelikleri konusunda OpenAI liderliğiyle uzun süredir aynı fikirde değiliz ve sonunda bir kırılma noktasına geldik” dedi. OpenAI’ın yapay genel zekayı (insan seviyesinde yapay zeka) çabalarında güvenliğe öncelik vermesi gerektiğini de ekledi.
Bu yaşananlardan sonra basına yansıyan haberlerde OpenAI’ın super-alignment biriminin taleplerini sürekli ertelediği ve vaat ettiği bilişim gücünü de zaten sağlamadığı iddia edilecekti…
OpenAI, ÇALIŞANLARA “KONUŞMA YASAĞI” KOYUYORMUŞ
GPT-4o’nun duyurulduğu etkinliğin yankıları daha yatışmadan OpenAI bir skandalla daha sarsıldı. OpenAI’dan ayrılan Ilya ve diğerleri neden daha açık konuşmuyordu da standart istifa tweet’leriyle yetiniyordu? Bunda şirketin çalışanlara dayattığı korkunç gizlilik sözleşmesinin etkisi var mıydı?
Vox yazarı Kelsey Piper, bu gizlilik sözleşmesinin ayrıntılarını epey ironik ve düşündürücü bir başlık attığı haberinde paylaştı. Haberin başlığı şöyle:
“ChatGPT artık konuşabiliyor ama OpenAI çalışanları konuşamaz”
Buna göre OpenAI çalışanlarına şirketi ifşa etmeme ve aşağılamama gibi hükümler içeren son derece kısıtlayıcı bir işten çıkarma sözleşmesi imzalatılıyor. Yani şirketten ayrılanlar hayatlarının geri kalanı boyunca eski işverenlerini eleştiremez.
Şirketten ayrılan bir çalışan belgeyi imzalamayı reddederse veya bunu ihlal ederse, şirkette geçirdiği süre boyunca kazandığı ve muhtemelen milyonlarca dolar değerindeki öz sermaye ve hisse senetlerinin tamamını kaybedebilir.
OpenAI’a güvenini kaybettiği için şirketten ayrıldığını açıkça söyleyen Daniel Kokotajlo, işten ayrılırken bu sözleşmeyi imzalamayı reddettiği için, muhtemelen çok büyük bir meblağa denk gelen kazanımlarından vazgeçmek zorunda kaldığını dile getirdi.
Sam Altman konuyla ilgili Twitter’da yaptığı açıklamada böyle bir sözleşme olduğunu doğruladı ama “bu dili değiştirme” sürecinde olduklarını söyledi.
Bu noktada OpenAI’ın 2015’te kâr amacı gütmeyen bir yapay zeka araştırma kuruluşu olarak kurulduğunu hatırlatmakta fayda var.
Aralık 2015’te kurulan şirket, “güvenli ve faydalı” yapay genel yapay zeka geliştirme hedefiyle yola çıkmıştı.
Ancak zaman içinde iş modelini değiştirerek şirketleşti. Özellikle Microsoft’la yapılan milyon dolarlık iş anlaşmaları, Altman’ın görevinden alınıp geri döndüğü o 5 günlük kaotik süreç ve devamında yaşanan gelişmeler, OpenAI’ın şeffaflığına gölge düşürdü.
Şimdi bu korkunç şartlara sahip gizlilik sözleşmesi de açıklığın (İngilizce open) ve şeffaflığın şirketin sadece ismindeki bir sözcükten ibaret olduğunu düşündürüyor.
BU ESNADA GOOGLE NE YAPIYOR?
Yapay zeka sektörünün en büyük güçlerinden bir diğeri Google. Hatta OpenAI (dolayısıyla Microsoft) ve Google arasında çetin bir rekabet sürdüğü aşikar.
Kuruluşunda OpenAI içinde yer alan ama 2018’de şirketten ayrılan Elon Musk’ın e-postaları da Google’ın en büyük rakip olduğunu gözler önüne seriyor. OpenAI’ın bizzat yayımladığı bu e-postalarda Musk’ın Google’la bu şekilde rekabet edilemeyeceğini söylediği ve şirketi Tesla’ya bağlamayı önerdiği ortaya çıkmıştı.
Google’ın ChatGPT’nin çıktığı günlerde şirket içinde 2022’de bir “kırmızı kod” yayımladığı biliniyor. O dönemde Google CEO’su Sundar Pichai toplantılar düzenlediği ve bu toplantılar sonucunda çalışmaların yapay zeka bölümüne daha fazla kaydırılması talimatını vermişti.
Bunun hemen ardından Google’ın sohbet botu Bard piyasaya sürülmüştü ama beklenen yankıyı uyandıramamıştı. Bugün Google Gemini yapay zeka aracılığıyla daha iyi bir noktada. Ayrıca ChatGPT’nin en büyük rakibi olarak görülen Claude modellerini geliştiren Antropic’in de arkasında yer aldığını unutmamalı.
Ancak tüm bunlar Google’ın OpenAI’a karşı yarışta henüz hazır olmayan teknolojileri aceleyle piyasaya sürmüş olabileceği şüphesini güçlendiriyor. Google tarafında da benzer bir tablodan söz ediliyor.
GOOGLE NEDEN TAŞ YEMEMİZİ SÖYLÜYOR?
Google, OpenAI’ın kendi tanıtımını bir gün önceye koyarak gölgede bıraktığı I/O konferansında arama motorunun yapay zeka entegrasyonuyla ilgili önemli bir özelliği duyurmuştu: Yapay Zeka Genel Bakış (AI Overview).
Önce ABD’de kullanıma açılan bu özellik Google’ın arama sonuçlarını özetliyor. Yani kullanıcıların Google’da yaptığı aramalar için özet halinde bir cevap sunuyor ve bu cevap, ilgili internet sitelerinin üzerinde, en tepede görülüyor. Bu sayede kullanıcının bilgiye daha kolay ve hızlı erişmesi amaçlanıyor.
Ancak kısa süre içinde Yapay Zeka Genel Bakış’ın verdiği yanlış bilgilerin ekran görüntüleri sosyal medyada hızla yayıldı. Önce astronotların Ay’da kedilerle oynadığını söyleyen araç, sonra endişe verici bir diğer örnekte kullanıcının “Günde kaç taş yemeliyim?” sorusuna cevaben, kayaçların hayati bir mineral ve vitamin kaynağı olduğunu, günde en az bir küçük taş yemek gerektiğini ileri sürdü.
Peynirin pizzaya yapışması için ne yapılması gerektiğine dair bir aramaya da pizzanın üstüne yapıştırıcı sürülmesi gerektiği yanıtını verirken, “depresif hisseden” bir kullanıcıya Golden Gate Köprüsü’nün popüler bir intihar güzergahı olduğunu söyledi.
İRONİYİ ANLAMADI
The Onion adlı ironi ve hiciv sitesinde taş yemekle ilgili çok okunan bir komedi yazısı var. Tamamen kurgu ürünü olan yazıda “Jeologlar günde en az bir küçük taş yemeyi öneriyor” deniyor. Genel Bakış’ın taşlarla ilgili cevabını da buradan aldığı anlaşılıyor. Bu da Google’ın yapay zekâsının, neyin doğru olduğuna değil, neyin popüler olduğuna göre özet çıkardığını düşündürüyor.
Benzer şekilde pizza örneğinde de yapıştırıcı sürülmesi gerektiği yanıtını Reddit’te 11 yıl önce girilmiş bir yorumdan aldığı ortaya çıktı. Yani arama sonuçlarını her zaman güvenilir kaynaklara dayandırmıyor gibi duruyor.
GOOGLE DA İŞİ ACELEYE GETİRMİŞ OLABİLİR Mİ?
Yapay Zeka Genel Bakış özelliğinin bir yıldır test edildiği söyleniyor. Üstelik yeni aracın özetleri sunma maliyetinin de bu süre içinde yüzde 80 oranında azaltıldığı ifade ediliyor.
Bazı yorumculara göre bu tür bir optimizasyon, teknolojinin henüz hazır olmadan piyasaya sürülmesine sebebiyet vermiş olabilir. Adının açıklanmasını istemeyen bir kaynak, The Verge’e verdiği röportajda şunları söylüyor:
“Bir zamanlar son teknoloji ürünü olması ve yüksek kaliteli ürünler sunmasıyla tanınan bir şirket, artık ‘meme’ haline gelen düşük kaliteli çıktılarıyla tanınıyor.”
Tüm bunlar yapay zeka alanında yarışın bir sonraki küresel krizin bu sektörde yaşanmasına neden olabileceği düşüncesini doğuruyor. Zira uzmanlar, bulut bilişim bugün kullandığımız temel sistemlerin kökenini oluştursa da yakın gelecekte yapay zeka araçlarının da bu denli yaygınlaşacağını söylüyor.
BU ESNADA YAPAY ZEKADA “SCAM” BALONU ŞİŞİYOR
Bunların yanı sıra sektörün aslında tam anlamıyla bir hizmet ve ürün sunmadığı halde milyarlarca dolar yatırım alan girişim sorunu da giderek daha çok göze çarpıyor.
ChatGPT’nin piyasaya sürülmesiyle şiddetlenen yapay zeka fırtınası, bugünlerde sıklıkla dot-com balonuna da benzetiliyor. Zira bazı uzmanlar, yapay zeka sektörünün de bir gün patlayabilecek şekilde şiştiği görüşünde.
1990’larda teknolojinin gelişmesiyle dijital dünya hem girişimcilerin, hem de yatırımcıların büyük ilgisini çekiyordu. Üzerine bir de internetin devreye girmesi tüm bu eğilimin hızını, önü alınamaz şekilde artırmıştı.
Bu ilgiyle birlikte teknoloji sektöründe yatırım balonu oluşmuştu. Birçok şirket henüz sürdürülebilir olduğunu kanıtlamadığı halde çeşitli abartılı vaatlerle yatırım toplamaya başlamıştı.
Ancak bu şirketlerin büyük çoğunluğu nihayetinde hedeflerini gerçekleştirememişti. Böylece 1990’ların sonunda ve 2000’lerin başında balon, teknoloji ağırlıklı hisselerin borsası Nasdaq’ta büyük bir çöküşle patlamıştı. Ufak şirketlerin hemen hepsi yok olmuş, büyüklerse ağır darbe almıştı. Örneğin, Amazon’un hisseleri 107 dolardan 7 dolara kadar gerilemişti.
YAPAY ZEKAYA MİLYONLARCA YATIRIM VAR, ORTADA ÜRÜN YOK
Yapay zeka sektöründe de benzer şekilde bir yatırım balonunun şiştiği tartışılıyor. Özellikle ABD’li Wall Street Journal gazetesi bu tartışmanın üzerine gidiyor.
İlk olarak geçen yıl konuyla ilgili bir makale yayımlayan gazete, yatırımcıların, henüz kâr etmemiş girişimler de dahi olmak üzere, sayısı giderek artan yapay zeka şirketlerine büyük miktarlarda nakit akıttığını yazmıştı.
Dahası, yatırımı alan girişimlerin çoğu henüz dikkat çeken bir ürün bile ortaya koyamıyor.
Yatırım takipçisi PitchBook’a göre, son üç yılda yaklaşık 26 bin yapay zeka girişimine 330 milyar dolar yatırım yapıldı. Bu rakam 2018 ile 2020 arasındaki döneme göre üçte iki oranında bir artışı temsil ediyor.
Sahte Profillerin Sahte Yapay Zekaları Sahte İlişkiler Kurarsa…