Yapay zekanın (AI) okul ödevleri için basit konuşma sorularına yanıt verdiğini, New York metrosunda silah tespit etmeye çalıştığını gördük; Bilgilendirildik.Artık deepfake'lerle çocuklara yönelik cinsel istismar içerikleri oluşturuluyor Kendisini kullanan bir suçlunun mahkûm edilmesinde suç ortağı olarak görüldüğünü gördük. Dijital güvenlik şirketi ESET, ilerlemeye devam eden yapay zekanın yanlış yöne gitmesini önlemek için yapılan çalışmaları inceledi ve nelere dikkat edilmesi gerektiğini paylaştı. ESET yıllardır güvenlik bağlamında yapay zekayı kullanıyor. Yapay zekanın sihirli bir çözüm olmadığı konusunda uyardı, çünkü önemli noktaları yanlış anlıyor. Bununla birlikte, “sadece ara sıra” kritik şeyleri yanlış yapan güvenlik yazılımları, büyük ölçüde olumsuz bir etkiye sahip olacak, güvenlik ekiplerinin çabalarının boşa gitmesine neden olan büyük miktarda yanlış pozitif sonuç verecek veya kötü amaçlı yazılımdan “yeterince farklı” görünen kötü niyetli bir saldırıdan kaçınacaktır. 'Yapay zeka zaten biliyor. Bu nedenle, kontrol ve dengeyi sağlamak için ESET yapay zekayı bir dizi başka teknolojinin üstüne katıyor. Bu şekilde, eğer yapay zekanın tepkisi dijital bir halüsinasyona benziyorsa, onu da teknoloji yığınının geri kalanıyla birlikte kullanımdan kaldırabilir. Düşmanlar, özellikle kimlik avı ve şimdi sosyal mühendislik gibi pek çok saf yapay zeka saldırısı başlatmamış olsa da, kimlik avından ses ve video kopyalamada daha etkili olmak için çabalarını büyük bir saldırı düzeyine taşıyorlar. Si'nin, ağdaki bağlantıları otomatikleştiren düşman yapay zeka hakkında düşünmesi gerekiyor. zincir. Kötü aktörler dijital olarak güven kazanabilir ve yapay zeka tarafından oluşturulan verileri kullanarak sistemleri kimlik doğrulaması için kandırabilirlerse, bu onların kuruluşunuza sızmaları ve özel yararlanma araçlarını manuel olarak başlatmaları için yeterli olacaktır. Bunu önlemek için satıcılar çok faktörlü kimlik doğrulama katmanını kullanabilir. Bu, saldırganların tek bir giriş veya parola yerine birden fazla kimlik doğrulama yöntemine ihtiyaç duyduğu anlamına gelir. Bu teknoloji şu anda yaygın olarak kullanılsa da kullanıcılar tarafından pek tercih edilmiyor. Bu, kullanıcıların ağır yükler veya büyük bütçeler olmadan kendilerini korumalarının kolay bir yoludur.Hepsi yapay zekanın suçu mu?Yapay zeka yanlış mı? Yapay zekanın yanlış anlaşılmasının ardındaki neden sorulduğunda insanlar şaka yollu “karmaşık” yanıtını verdi. Ancak yapay zeka, fiziksel zarar verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça, bu artık tatmin edici ve yeterli bir cevap olmaktan çıkıyor. Örneğin yapay zeka destekli sürücüsüz bir araba kaza yaparsa “sürücü” mü yoksa üretici mi cezalandırılacak? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun mahkemeyi tatmin edecek bir açıklama değil. Peki gizlilik? GDPR kurallarının, gizlilik açısından bakıldığında teknolojinin çılgına dönmesini engellediğini gördük. Tabii ki, kâr amacıyla türevler üreten, dilimlenmiş ve doğranmış orijinal yapay zekadan türetilmiş çalışmalar, gizlilik ruhuna aykırıdır ve bu nedenle koruyucu yasaları tetikleyecektir. Peki yapay zekanın türev olarak değerlendirilmesi için tam olarak ne olması gerekiyor? şu kadar Kopyalamak zorunda mı ve mevzuatı aşacak kadar kopyalarsa ne olur? Üstelik hukuki açıdan daha iyi test edilmesi yıllar alacak içtihatların yetersiz olduğu bir ortamda bunu mahkemede kim ve nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI'ye dava açtığını görüyoruz çünkü makalelerin atıf yapılmadan yüksek teknoloji kullanılarak çoğaltıldığına inanıyorlar; Davanın sonucu merak konusu olacak, belki de ileride yaşanacak hukuki süreçlerin habercisi olacak. Yapay zeka bir araçtır ve çoğu zaman iyi bir araçtır ancak büyük güç, büyük sorumluluğu da beraberinde getirir. Şu anda yapay zeka tedarikçilerinin sorumluluğu, yeni keşfedilen gücümüzün ters gitmesi durumunda olabileceklerin çok altında kalıyor. Kaynak: (guzelhaber.net) Güzel Haber Masası
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–
—–Sponsorlu Bağlantılar—–