Bir algoritma iç savaş çıkarabilir mi? Yuval Noah Harari, son kitabı Nexus’ta bu sorunun cevabını Myanmar örneğiyle, çok detaylı anlatıyor: Facebook algoritmalarının bağımsız kararlar alarak öfkeyi körüklediğini söylüyor. Peki, bizi ekrana hapsetmek uğruna toplumsal barışı feda eden bu 'yapay zeka etiği' çıkmazında bugün neredeyiz? Gelin, teknolojinin bu karanlık köşelerini ve geleceğimizi beraber sorgulayalım.
Facebook algoritmalarının Myanmar'daki rolü, veri etiği ve yapay zeka güvenliği konularında en çok incelenen "kötü örneklerden" biri.
Her şeyin "0" ve "1"lerden oluştuğu teknoloji dünyasında, bu algoritmaları 'teknoloji işte' deyip geçemeyiz. Yapay zeka sistemlerini yaratan insanlar ve kural koyucuların, bunun basitçe bir teknoloji olmadığını, yanı sıra toplumsal sorumluluklar taşıdığını kabul etmeleri ve bu olgunlukla hareket ediyor olmaları yadsınamayacak bir gerçeklik.
Myanmar'da Neler Oldu?
2014 - 2017 yılları arasında ordu destekli gizli hesaplar, sosyal medya üzerinden sistemli bir şekilde nefret söylemi ve yalan haber yaymaya başladı. Algoritmalar bu içerikleri "etkileşim" aldığı için milyonlara ulaştırdı. Toplumda Arakanlı Müslümanlara karşı korku ve öfke biriktirildi. Halk, komşusuna karşı kışkırtıldı.
Ağustos 2017'de "Müslümanlar tapınakları yakacak" gibi sahte panik haberleri algoritma sayesinde saatler içinde tüm ülkeye yayıldı. Ordu, bu "hazırlanmış" toplumsal öfkeyi arkasına alarak fiziksel saldırıları ve katliamları başlattı
- Hedef Alınan Grup Arakanlı Müslümanlardı. Bu grup, Myanmar'da vatandaşlık hakları tanınmayan ve sistemli ayrımcılığa maruz kalan bir azınlıktı.
- Sorumlu Taraflar Myanmar Ordusu ve radikal Budist milliyetçi gruplardı.
- Can Kaybı Ne Oldu? Sınır Tanımayan Doktorların verilerine göre, krizin başladığı ilk ay olan Ağustos 2017'de en az 6.700 ile 10.000 arasında Arakanlı Müslüman öldürüldü. Toplamda ölü sayısı on binlerle ifade ediliyor.
- Göç ile sonuçlandı: Yaklaşık 740.000 kişi köylerinin yakılması ve şiddet nedeniyle komşu ülke Bangladeş'e sığınmak zorunda kaldı.
- Nedeni Neydi? Birleşmiş Milletler (BM) raporlarına göre, Facebook bu krizde "belirleyici bir rol" oynadı:
Facebook Algoritması, kullanıcıları platformda daha uzun süre tutmak için en çok beğeni, yorum, paylaşım alan içerikleri öne çıkarıyordu.
Yankı Odaları ile nefret söylemi ve kışkırtıcı içerikler daha fazla ilgi çektiği için algoritma tarafından daha fazla kişiye gösteriliyordu.
Facebook'un o dönemde Myanmar'daki yerel Birmanca dilini anlayabilen ve nefret söylemini ayırt edebilecek yeterli sayıda yapay zeka filtresi veya moderatörü yoktu. Şirketin dil ve denetim eksiklikleri de bu süreci tetikleyen nedenlerden oldu.
Krizin Teknolojik ve Etik Boyutları: Algoritma Neden "Kötülüğü" Seçti?
Burada suçlu olan yapay zekanın "bilinci" değil, ona verilen optimizasyon hedefiydi.
1. Algoritmanın Gizli Pusulası: "Optimizasyon Hedefi"📉
Yapay zeka sistemleri genellikle tek bir görevi yerine getirmek için eğitilir. Facebook örneğinde bu görev; "Kullanıcıyı platformda tutmak"tı. Algoritma deneme-yanılma yoluyla şunu keşfetti: Öfke, merak ve nefret içerikleri; sosyal medyada barış, neşe ve huzur içeriklerinden daha çok beğeni, yorum ve paylaşım alır. Bunun sonucunda; etik bir kısıtlama olmaksızın sadece etkileşim sayılarını takip eden algoritma, toplumun ayrılıkçı şiddete ve nefrete olan yönelimlerini "başarı kriteri" olarak gördü.
Peki, bir yazılım nasıl oluyor da kendi kendine "nefreti" seçiyor? Aslında bu durum, yapay zekanın "kötü niyetli" olmasından değil, kendisine verilen emri en iyi şekilde yerine getirmesinden kaynaklanıyor.
Yapay zeka sistemleri, bir insanın ona gösterdiği hedefe kilitlenir, bu talimatları birebir uygular, sorgulamaz. Bunu yaparken etik mi değil mi diye ölçüp biçmez. Mühendislerin yapay zekaya verdiği bu rotaya “Optimizasyon Hedefi” deniyor. Facebook örneğinde ise “Anlamlı Sosyal Etkileşim” olarak ifade ediliyor. Kulağa masum gibi gelse de, arka planda bunun anlamı şuydu: "Ne pahasına olursa olsun daha fazla beğeni, daha fazla yorum ve daha fazla paylaşım al."
Kedi Videosu mu, Öfke mi?
Algoritma, önüne gelen binlerce içeriği kullanıcılara gösterip göstermeme kararı verirken, aslında çok basit bir matematik hesabı yapar:
Algoritma size bir kedi videosu gösterdiğinde 2 dakika ekranda kalıyorsunuz.
Ancak öfke uyandıran, komşunuzu düşmanlaştıran bir yalan haber gösterdiğinde, altına 10 tane yorum yazıyor ve 20 dakika boyunca tartışıyorsunuz.
"1" ve "0"lardan oluşan bilgisayar dünyasında 20 dakika, 2 dakikadan büyüktür. Bu nedenle algoritma, etik bir süzgeçten yoksun olarak büyük olan rakam "20"yi yani "öfkeyi" seçer. Çünkü onun görevi dünyayı güzelleştirmek değil, sizi o ekranda daha uzun süre tutmaktır.
2. Bağlam Körlüğü 🧩
Yapay zeka, veriyi işler ama "anlamı" kavrayamaz. Bir içeriğin mizah mı, eleştiri mi yoksa bir katliam çağrısı mı olduğunu anlaması için o dilin ve kültürün tüm inceliklerine hakim olması gerekir. Facebook'un Myanmar'daki en büyük teknolojik hatası, yerel Birmanca dilini anlamayan bir modeli, denetimsiz bir şekilde sahaya sürmesiydi. Bu yaşananların bize gösterdiği en somut çıktı , teknoloji yerelleşmediğinde, küresel bir silaha dönüşebileceğidir.
3. Sorumluluk Kimin?⚖️
Hukukta bir suçun oluşması için genellikle "kasıt" veya "ihmal" aranır. Peki, bir algoritma binlerce insanı kışkırtıp ölümlere sebep olduğunda bu sorumluluğun faturası kime kesiliyor?
İşte gerçek dünyadan örnekler ve hukuki belirsizlikler:
- Meta-Facebook ve 150 Milyar Dolarlık Dava
2021 yılında Myanmar'daki Rohingya Müslümanları, "Facebook algoritmasının, nefret söylemini barındırdığı ve kâr amacı güderek bu söylemi yaydığı" iddiasıyla California mahkemelerinde Meta'ya karşı 150 milyar dolarlık toplu tazminat davası açtılar.
Bu hukuki mücadele halen devam ediyor, ancak şimdiye kadar teknoloji devleri, mevcut yasaların sağladığı "sorumsuzluk zırhı" ve zamanaşımı gibi teknik detaylar sayesinde büyük bir ceza almaktan kurtulmayı başardı.
Şirketler genellikle bu davalarda Amerika’daki ünlü "Section 230" yasa maddesinin arkasına sığınıyor. Bu yasa, platformları kullanıcıların paylaştığı içeriklerden sorumlu tutmuyor. Ancak hukukçular artık şunu savunuyor: "Kullanıcının yazdığı yazıdan sorumlu olmayabilirsin, ama o yazıyı algoritmanla milyonların önüne çıkarma kararından sorumlusun!"
- Section 230 Nedir ve Hangi Kanunda Yeri Vardır?
Section 230, ABD'de 1996 yılında kabul edilen İletişim Ahlakı Yasası'nın (Communications Decency Act - CDA) bir parçasıdır.
Özetle; "Hiçbir bilgisayar hizmeti sağlayıcısı veya kullanıcısı, başka bir içerik sağlayıcı tarafından sunulan herhangi bir bilginin yayıncısı veya konuşmacısı olarak muamele görmez."
Bu madde, internet sitelerine ve platformlara iki büyük güç verir:
Kullanıcıların paylaştığı içeriklerden dolayı Google, Twitter gibi platformların dava edilmesinin önüne geçerken, zararlı içerikleri modere etme yani kaldırma veya kısıtlama hakkı verir.
Türkiye'de ise 5651 Sayılı "İnternet Ortamında Yapılan Yayınların Düzenlenmesi ve Bu Yayınlar Yoluyla İşlenen Suçlarla Mücadele Edilmesi Hakkında Kanun" uyarınca, platformlar kullanıcı tarafından paylaşılan içerikten sorumlu değildir. Ancak, hukuka aykırı bir içerikten resmi bildirimle haberdar edildiği andan itibaren o içeriği yayından kaldırmak zorundadır. Kaldırmazsa, platform da o içerikten sorumlu hale gelmektedir.
- "Algoritma Bir Editördür" Argümanı ✍️
Mahkemelerde dönüm noktası olan tartışma şöyle: Eğer bir gazete yalan haber verirse sorumludur. Algoritma akışta neyi göreceğimize karar verdiği için, o da artık pasif bir "haber panosu" değil, aktif bir "haber editörü" haline dönüşmüştür.
Algoritma etiği üzerine yapılan tartışmaların bir odağı da, gencecik ve masum bir tasarım öğrencisidir: Nohemi Gonzalez.
23 yaşındaki Nohemi, 2015 yılında Paris'te bir restoranda arkadaşlarıyla yemek yerken, IŞİD saldırıları sonucunda hayatını kaybeder. Ailesi, kızlarının ölümünden sadece tetiği çekenleri değil, Google - YouTube'u da sorumlu tutarak hukuk tarihine geçen o meşhur "Gonzalez - Google" davasını açarlar.
Davanın özeti ve düşündürdükleri:
Aile, YouTube’un terör içeriklerini barındırmakla kalmayıp, kendi tavsiye algoritmalarıyla bu videoları "ilgili kişilere önererek" örgütün büyümesine ve radikalleşmesine aktif olarak yardım ettiğini savunur.
Dava, teknoloji devlerinin arkasına sığındığı "Section 230"un sorumsuzluk zırhı maddesini sarsan ilk büyük hamle olur. Argüman basittir: "Algoritma bir içeriği ön plana çıkarıyorsa, bu artık tarafsız bir kütüphane değil, aktif bir yayıncılık kararıdır."
Mahkeme teknik sebeplerle Google’ı suçlu bulmasa da, bir algoritmanın "başarı metriği" uğruna şiddeti besleyebileceği gerçeği en üst düzey hukuk kürsüsünde tescillenmiş olur.
Google kazanır, mahkeme, Google'ın algoritmalarının terör örgütlerine "bilerek yardım ettiğine" dair yeterli kanıt olmadığına karar verir.
Nohemi Gonzalez’in hikayesi, dijital dünyadaki nümerik hedeflerin, gerçek dünyada ne kadar ağır bedelleri olabileceğini hatırlatan en acı örneklerden biri olarak tarih sayfalarında yerini almıştır.
Yapay Zeka Etiğinde Örnek Uygulama Var mı?
Dünyada bu konuda atılmış en somut adım 2024-2026 sürecinde yürürlüğe giren AB Yapay Zeka Yasası. Bu yasa, yapay zekayı "ne işe yaradığına" göre değil, "insan hayatı için ne kadar riskli olduğuna" göre sınıflandırıyor:
Toplumu fişleyen "sosyal puanlama" sistemleri, iş yerlerinde duygu analizi ve halka açık alanlarda kitlesel biyometrik tarama gibi temel hakları ihlal eden uygulamalar tamamen yasaklanmıştır.
Eğitim, işe alım, bankacılık ve yargı gibi alanlarda kullanılan yapay zekalar sıkı denetime tabidir. Bu sistemlerin "şeffaf" olması ve bir insan tarafından denetlenmesi zorunludur.
ChatGPT gibi genel amaçlı yapay zekalar, ürettikleri içeriğin "yapay zeka ürünü" olduğunu belirtmek ve telif haklarına uymak zorundadır. Deepfake içerikler de "sahte" olduğu belirtilmeden paylaşılamayacaktır.
Yasa, kurallara uymayan şirketlere cirolarının %7'sine kadar, ki bu da milyarlarca euro değerinde, ağır para cezaları öngörüyor. Yani artık "algoritma öyle karar vermiş" diyerek sorumluluktan kaçmak yasal olarak mümkün olmayacaktır.
Son Söz
Hukuk mu teknolojiyi yönetecek, yoksa algoritmalar yasaların etrafından dolanmaya devam mı edecek? Görüşlerinizi yorumlarda bekliyorum, zira bu gelecek hepimizin.

Hiç yorum yok:
Yorum Gönder