SailPoint araştırması, teknoloji profesyonellerinin %96'sının yapay zeka ajanlarını büyüyen bir güvenlik tehdidi olarak gördüğünü ancak %98'inin ajan teknolojisinin kullanımını genişletmeyi planladığını ortaya koydu
ABD merkezli kimlik güvenliği firması SailPoint'in yakın zamanda yayınladığı bir araştırma, teknoloji yöneticilerinin yapay zekaya yönelik tutumlarındaki çarpıcı çelişkiye dikkat çekti.
Çalışma, teknoloji sektörünün her şeyden önce, insan kontrolünden bağımsız olarak hareket edebilen yapay zeka türü olan etken yapay zeka ile ilgilendiğini gösteriyor.
SailPoint, araştırması kapsamında 353 sektör profesyoneli ile görüştü ve katılımcıların %96'sının yapay zeka ajanlarını büyüyen bir güvenlik riski olarak görmesine rağmen, kuruluşların %98'inin önümüzdeki yıl içerisinde yapay zeka kullanımını yaygınlaştırmayı planladığını tespit etti.
Sonuç olarak, ajansal yapay zekanın hızlı benimsenmesi, işletmeler için bir tür risk-ödül ikilemini temsil ediyor.
Bu riskin ortadan kaldırılması, yeni türdeki tehditlerle başa çıkabilecek kapasitede yeni siber güvenlik önlemlerine yatırım yapılmasına bağlı olacak.
SailPoint Ürün Başkan Yardımcısı ve CTO'su Chandra Gnanasambandam, "Agentic AI hem inovasyon için güçlü bir güç hem de potansiyel bir risk" diyor.
"Bu otonom ajanlar işlerin yapılma biçimini dönüştürüyor, ancak aynı zamanda yeni bir saldırı yüzeyi de sunuyor.
"Genellikle hassas sistemlere ve verilere geniş erişimle faaliyet gösterirler, ancak sınırlı denetime sahiptirler.
"Yüksek ayrıcalık ve düşük görünürlüğün birleşimi, saldırganlar için birincil hedef oluşturuyor."
SailPoint'in çalışmasının detayları
Sektörün aracı yapay zeka konusundaki en büyük korkusu, onun otonom hareket edebilme yeteneğidir.
SailPoint anketine katılanların %72'si, yapay zeka ajanlarının geleneksel makine kimliklerine göre daha fazla risk oluşturduğuna inanıyor.
Başlıca belirtilen faktörler şunlardır:
ْ AI ajanlarının ayrıcalıklı verilere erişim yeteneği (%60) İstenmeyen eylemleri gerçekleştirme potansiyelleri (%58)
ْ Ayrıcalıklı verileri paylaşma (%57) Yanlış veya doğrulanmamış verilere dayalı kararlar alma (%55)
ْ doğrulanmamış veriler (%55) Uygunsuz bilgilere erişim ve paylaşım (%54)
Bu istatistiklerdeki kaygı elle tutulur düzeyde olsa da, SailPoint'in araştırması çok az sayıda şirketin siber güvenliklerini güçlendirmek için proaktif önlemler aldığını ortaya koyuyor.
SailPoint'in araştırması, kuruluşların %82'sinin günlük işlerinde yapay zeka ajanlarını kullandığını, ancak yalnızca %44'ünün bunları güvence altına almak için politikalara sahip olduğunu ortaya koyuyor.
Hassas kurumsal verilere erişim
ChatGPT gibi büyük dil modelleri (LLM'ler), genellikle yapay zeka ajanlarının erişebildiği hassas verilere erişemez.
Mevcut aracılık modelleri müşteri bilgilerine, finansal verilere, fikri mülkiyete, yasal belgelere ve tedarik zinciri işlemlerine erişim sağlıyor ve bu durum teknoloji sektörünü endişelendiriyor.
SailPoint anketine katılanların %92'si, yapay zeka ajanlarını yönetmenin kurumsal güvenlik açısından kritik öneme sahip olduğunu söyledi.
Şirketin araştırması ayrıca bazı endişe verici olayları da ortaya çıkardı; katılımcıların %23'ü, yapay zeka ajanlarının erişim bilgilerini ifşa etmeleri için kandırıldığını bildirdi.
Şirketlerin %80'i, AI ajanlarının yetkisiz sistemlere erişim (39%), hassas verileri paylaşma (33%) ve uygunsuz içerik indirme (32%) gibi istenmeyen eylemler gerçekleştirdiğini bildirdi. Chandra, bunun gibi tekrar eden sorunları önlemek için sıkı yönetim düzenlemelerinin gerekli olduğuna inanıyor. "Kuruluşlar AI ajanlarının kullanımını genişlettikçe, bu ajanların gerçek zamanlı izinler, en az ayrıcalık ve eylemlerine ilişkin tam görünürlük ile insan kullan�

Comments
Post a Comment