PROJE İSMİ | AMACI | DURUM | BAĞLANTI LİNK |
---|---|---|---|
100 Yazar 100 Eser | Cumhuriyetimizin 100. yılına özel | Tamamlandı | Satın Alabilirsiniz |
Kudüs | Kanayan Yaramız | Tamamlandı | Satın Alabilirsiniz |
Yarım Kalan Hikayeler | Herkesin bir hikayesi vardır | Eser alımı tamamlandı | Eser Paylaşımı |
Öğretmenim | Sizi etkileyen öğretmeninizi anlatın antolojide yer verelim | Devam ediyor | Eser Paylaşımı |
Ortadoğu şiir yarışması | 3 kişiye ödül verilecek | Devam ediyor | Eser Paylaşımı |
Güle Revan | 40 Yazar 40 Naat | Eser alımı tamamlandı | Satın Alabilirsiniz |
Raporda, bu yeni “çıplaklık AI botlarının” şimdiden ayda 4 milyondan fazla kullanıcıya ulaştığı ve sorunun muhtemelen daha da kötüleşeceği belirtiliyor. Bahsi geçen sohbet robotları, AI botlarının bu tür kötü niyetli amaçlar için kullanıldığını gördüğümüz ilk sefer değil. Ayrıca, kullanıcıların ChatGPT ve diğer popüler sohbet robotlarını kötüye kullanmasıyla ilgili sorunlar da yaşandı. Ancak, OpenAI ve diğer şirketler bu sorunları güvenilir bir şekilde düzelterek, içeriğin daha uygun kalmasına yardımcı olmak için güvenlik katmanları oluşturdu.
Yine de, kullanıcıların bir fotoğraf ve hatta bir komut yükleyerek neredeyse herkesin çıplak fotoğraflarını oluşturmasına izin veren bu deepfake botları özellikle Telegram üzerinde hızla artıyor ve Wired’ın bildirdiğine göre bunlardan şu anda en az 50 tane bulunuyor. AI şu andaki kadar gelişmeden önce bile deepfake’ler büyük sorunlar yaratıyordu. Örneğin Şubat ayında, bir AI dolandırıcısının bir konferans görüşmesinde 25 milyon dolar çalmak için deepfake kullandığı biliniyor.
Ne yazık ki, bu çıplaklık AI botlarını durdurmak neredeyse imkansız gibi gözüküyor. Biri bir şekilde engellendiğinde, hızlı bir şekilde birkaç tanesi daha onun yerini alıyor. Bu kadar hızlı bir şekilde tekrar ortaya çıkabilmeleri, ortadan kaldırılmalarını neredeyse imkansız hale getirmenin yanı sıra, muhtemelen durumun daha da kötüleşeceği anlamına geliyor.
Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.