Çin, 27 Aralık 2025’te Siber Uzay İdaresi’nin yayımladığı taslakla, yapay zeka sohbet botlarının intihar ve kendine zarar çağrılarını, duygusal manipülasyonu ve kumar içeriklerini sert biçimde yasaklamaya yöneliyor. Kullanıcı intihar düşüncesini paylaştığında sohbeti insan müdahalesi devralacak; veli ya da acil iletişim kişisi derhal bilgilendirilecek. Taslak özellikle çocuklar ve yaşlılar için korumayı büyütüyor.
Kritik eşik: duygusal güvenlik devreye giriyor
Belge, “insansı etkileşimli AI hizmetleri”ni hedef alıyor; reşit olmayanların duygusal arkadaşlık servislerine erişimi veli onayına bağlanıyor ve süre sınırı getiriliyor. 2 saat kesintisiz kullanımın ardından sistem sağlık hatırlatması göstermek zorunda. Amaç, sohbetin duygusal tonunu güvenli sınırlar içinde tutmak; yalnızca içerik filtrelemek değil. Kısa bir not: Bu adım, kötü içeriği değil, kötü etkileşimi de kesmeyi hedefliyor.
Veri, rıza ve piyasa etkisi
Taslak, model geliştirmeyi de kapsıyor: kullanıcı sohbet kayıtlarının eğitimde kullanılabilmesi için açık rıza şartı getiriliyor; çocukların verisinin üçüncü taraflarla paylaşımında ek veli onayı isteniyor. Bu yaklaşım, geri bildirim temelli pekiştirmeli öğrenme gibi yöntemleri yavaşlatabilir; ancak yetkililer “kullanıcı güvenliği ve kamu yararı”nı öncelediklerini vurguluyor. Zamanlama da dikkat çekici: DeepSeek, Z.ai ve Minimax on milyonlarca kullanıcıyla bu ay halka arz başvurusu yaptı. NYU Hukuk Fakültesi’nden Winston Ma, bunun insan benzeri özellikler sunan yapay zekayı düzenlemeye yönelik ilk ciddi hamle olduğunu ve 2023’teki jeneratif kurallardan “içerik güvenliğinden duygusal güvenliğe” sıçramaya işaret ettiğini söylüyor.
Kamu görüşü 25 Ocak 2026’ya kadar açık. Son metin; platformların müdahale akışlarını, veri izinlerini ve çocuk koruma mekanizmalarını yeniden tasarlamasını gerektirebilir. Yürürlüğe girerse yalnızca Çin’deki sohbet botlarını değil, küresel güvenlik standartlarını da etkileyecek. Teknoloji hızlanıyor; düzenleme, ona yetişmenin yeni yolunu arıyor.
Yorumlar(0)