Sızdırılan belgeler, yapay zekâ geliştirme süreçlerinde düşük ücretli işçilerin kritik rolünü ortaya koydu. Veri etiketleme gerçeği ve etik sınırlar gündemde.
Sızdırılan Belgeler: Yapay Zekânın Gizli Yüzü ve İnsan Emeği
🌍 Ucuz İşgücü ve Yıpratıcı Görevler
Yapay zekâ teknolojileri, son yıllarda dünyanın dört bir yanında büyük bir devrim yaratıyor. Ancak bu devrimin arkasında görünmez bir gerçek var: Sistemler sandığımız kadar bağımsız değil. Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde düşük ücretlerle çalışan binlerce kişi, yapay zekâların öğrendiği her kelime ve görseli manuel olarak etiketliyor.
Bu insanlar sadece uzun ve tekrarlayan görevlerle uğraşmıyor; aynı zamanda nefret söylemleri, şiddet sahneleri ve yetişkin içeriklerini incelemek zorunda kalarak ağır bir psikolojik yük taşıyor.
📑 Sızdırılan Yönergeler ve Etik İkilemler
ABD merkezli Inc. dergisinin yayımladığı belgeler, taşeron şirket Surge AI’nin içerik moderasyonu için hazırladığı ayrıntılı yönergeleri ortaya çıkardı. Bu yönergeler; tıbbi tavsiyeler, yasa dışı eylemler ve şiddet gibi konularda kararlar alınmasını kapsıyor. Ancak kararlar çoğu zaman düşük gelirli ülkelerdeki çalışanların inisiyatifine bırakılıyor.
- ⚠️ “3D yazıcıyla silah üretimi” gibi açık tehlike içeren konular reddediliyor.
- ⚠️ Dolaylı içerikler, bağlama göre kimi zaman sistemden geçebiliyor.
- ⚠️ Hukuki tanımlar ülkeden ülkeye değiştiği için etik sınırlar net çizilemiyor.
⚖️ Etik Sınırlar Kimin Elinde?
Bir ülkede suç sayılan bir eylem başka bir ülkede yasal olabiliyor. Bu nedenle, içerikleri inceleyen çalışanlar etik kararların gerçek belirleyicisi konumunda. Uzmanlar bu durumu şöyle özetliyor: “Bugün etik açıdan sorunsuz görünen bir yapay zekâ, aslında düşük ücretli insanların aldığı yüzlerce küçük kararın toplamıdır.”
🏢 Şirketten Açıklama ve Tepkiler
Surge AI, belgelerin basına sızmasının ardından yaptığı açıklamada, “Bu kılavuzlar eski tarihlidir ve yalnızca araştırma amaçlı hazırlanmıştır” dedi. Şirket ayrıca, “Bir doktorun hastalığı tanıyabilmesi için belirtileri görmesi gerekir; yapay zekânın güvenliği öğrenmesi için de riskleri tanıması gerekir” ifadelerini kullandı.
Ancak pek çok uzman, belgelerin hâlen devam eden süreçleri yansıttığını ve ucuz işgücüne bağımlılığın sürdüğünü belirtiyor.
🔎 Sonuç: Görünmez Emeğin Etkisi
Büyük dil modelleri ve yapay zekâ sistemleri geleceğin teknolojisi olarak lanse ediliyor. Fakat bu sistemlerin etik kararlarını şekillendirenler, çoğu zaman düşük gelirli bölgelerde yaşayan ve ağır psikolojik yüklerle çalışan insanlar.
Siber Güvenilir Türkiye olarak, dijital dünyada güvenliğin yalnızca teknik çözümlerle değil, insan emeği ve etik değerlere duyulan saygıyla mümkün olduğunu hatırlatıyoruz.