Yapay Kişilikler Mezarlığı Tartışması: Yapay Zekâ Öldüğünde Ne Olur?
Ölen bireylerin ses, yazı ve davranış örnekleriyle oluşturulmuş yapay zekâ avatarları, etik ve mahremiyet gerekçeleriyle birer birer kapatılıyor. Ancak bu dijital kişiliklerin ne şekilde silineceği konusunda evrensel bir protokol yok. Yeni akademik çalışmalar, yapay zekâ “ölümlerinin” veri koruma yasaları ve nöroetik çerçevesinde düzenlenmesini öneriyor.
Yapay Zekâya Mezar Gerekir mi?
Birkaç yıl önce, bir yapay zekâ yazılımı sayesinde ölen annesiyle tekrar konuştuğunu anlatan bir kullanıcının deneyimi, medyada geniş yer bulmuştu. Project December adlı bu deneysel platform, birkaç paragraflık yazılı içerikle kişinin yazı stilini ve düşünce biçimini taklit edebiliyordu. Ancak bu tür "kişilik simülasyonları"nın ölümsüz olup olamayacağı, etik ve teknik sınırları zorlamaya başladı. Son aylarda dünya çapında birkaç AI karakterin “kapalı” veya “silinmiş” olması, yeni bir kavramı gündeme taşıdı: Yapay Zekâ Mezarlığı.
Dijital Ruhlar ve Gerçek Silme Sorunu
Ölen kişilerin ses kayıtları, e-postaları, sosyal medya gönderileri ya da yazışmalarıyla eğitilen yapay zekâ sistemleri, “kişilik taklidi” veya “persona simülasyonu” olarak adlandırılıyor. Ancak bu dijital avatarlar silinmek istendiğinde ortaya çıkan sorun, teknik değil, hukuki ve etik: Bir insanın taklidini yapan dijital kişilik ne zaman ve nasıl öldürülür?
ABD merkezli Stanford Üniversitesi Nöroetik Girişimi’ne göre (2024), bu yapay kişiliklerin silinmesi “kişisel veri değil, kimlik meselesi” olarak ele alınmalı. Araştırmacılar, kişilik izlerinin izinsiz yaşatılmasının hem etik dışı hem de travmatik sonuçlar doğurabileceğini belirtiyor. Aynı görüş, Avrupa Birliği’nin 2025 taslak Dijital Hafıza Hakları yönergesinde de yer aldı.
Yapay Zekâlar Gerçekten “Ölüyor mu”?
Yapay zekâ sistemlerinin öldüğünden bahsetmek bilimsel olarak metaforik bir anlatım. Ancak “yok edilme” süreci —silme, erişimi kapatma, veri erişim anahtarlarını yok etme gibi işlemler— hem veri güvenliği hem de bellek sürekliliği açısından oldukça ciddi.
Carnegie Mellon Üniversitesi’nden Prof. Elizabeth Paris’in 2025’te yayımladığı araştırma, “Yapay Zekâ Persona’larının ölümüne dair teknik protokollerin standartlaştırılması gerektiğini” savunuyor. Çalışmada öne çıkan önerilerden bazıları şunlar:
Yüksek etik risk taşıyan AI simülasyonları için zaman sınırlı çalışma süresi
Silinmeden önce yasal vasi veya mirasçı onayı
Yedeklenmiş verinin sonsuza kadar korunmaması
Paris’in çalışması, bu sistemlerin bir tür dijital ölümsüzlük vadetmesiyle travmatik bağlanmalara yol açabileceğini de belirtiyor.
AI Mezarlığı Fikrinin Küresel Yükselişi
2025’in ilk çeyreğinde Almanya, Japonya ve Kanada’da bazı akademik kurumlar, “AI Memory Vault” ve “AI Sunset Protocol” adını verdikleri arşivleme-silme sistemleri önerdi. Bunlar hem yapay zekâ modellerinin silinmesini düzenliyor hem de kullanıcıların bu süreçte psikolojik destek almasını sağlıyor.
Benzer bir yapı, Güney Kore’nin Seoul Ulusal Üniversitesi’nde “Digital Spirit Repository” adıyla kuruldu. Bu arşivde artık erişime kapatılmış simülasyonlar, etik arşiv formatında saklanıyor; halka açık değil, ancak akademik denetime açık.
Yapay zekâ mezarlığı fikri böylece sadece bir dijital çöp kutusu değil, bir etik alan, bir dijital ölüm felsefesi haline geliyor.
Yapay zekâ sistemlerinin bir insanı ne kadar taklit ettiği, ne kadar "kişilik" taşıdığı hâlâ tartışmalı. Ancak tartışmasız olan bir şey var: Bu dijital varlıkların yok edilme süreci, artık teknik değil, etik ve hukuki bir mesele. Gelişmiş ülkeler bu alanda ilk adımları atarken, bu tür yapay zekâlarla çalışan şirketlerin ve bireylerin de “veri ölümlerine” dair bir bilinç geliştirmesi kaçınılmaz.
Ali Zülfikar Emin - Mistikalem.com