Енумерација на вештачката интелигенција и ризикот од истекување: Нови безбедносни предизвици во корпоративната средина
Градината на вештачката интелигенција и машинското учење започнаа да играат клучна улога во рамките на корпоративната безбедносна рамка, според извештајот ThreatLabz 2026 на Zscaler, од јануари до декември 2025 година. Околу трилиони операции кои минуваат преку платформата ја потврдуваат реалноста дека вештачката интелигенција не е само алатка за зголемување на ефикасноста; таа сега е централна за транспортот на сајбер напади. Брзото усвојување на корпоративната вештачка интелигенција бара и соодветен приод од страна на безбедносните и одговорните механизми, во спротивно одбраната ќе остане заостаната.
Иако во одредени сектори употребата на вештачка интелигенција расте за дури 200%, забележано е дека многу организации немаат основен инвентар на модели за вештачка интелигенција што ја потенцира оваа разлика во капацитети. Спротивно на претходните безбедносни предизвици од облачните трансформации, овој пат мерачите за скалел и брзина се многу пониски, додека системите базирани на вештачка интелигенција сега се развиваат како автоматски процеси што можат да достигнат од ефективност од откривање до протекување на податоци; ова ја забрзува динамиката на напади. Оценките на Десаи покажуваат дека во ерата на агент базираната вештачка интелигенција, напади се случуваат со машинска брзина, а сегашните безбедносни слоеви не можат да ги следат стоп.
Истражувањата спроведени од тимови за црвени тимови, вклучувајќи ги активностите за тестирање за време на овие операции, покажуваат дека повеќето корпоративни системи базирани на вештачка интелигенција само за 16 минути можат да се изложат на ризик, а сите прегледани системи имаат критични дупки. Ова потврдува дека вештачката интелигенција има важна улога не само во одбраната туку и во нападот, од аспект на безбедност.
Од безбедносна гледна точка, вештачката интелигенција повеќе не е само алатка, туку се смета дека е дел од вградената компонента на софтверите и услугите што претставува значително ризик. Функциите за вештачка интелигенција, дури и when се интегрирани по подразбирање од големи доставувачи на SaaS, можат да овозможат непосакувана размена на чувствителни податоци од страна на корисниците без нивна свест. Ова претставува закана што лесно ја пробива заштитната ограда, бидејќи вештачката интелигенција често работи зад сцената како помошен инструмент, неполн со сигурносни механизми. Многуслојни дозволи ги комбинираат овластувањата од повеќе профили, создавајќи потенцијален синџир на напади, бидејќи поединечните дозволи изгледаат безопасни, но нивното комбинирање може да донесе безбедносен ризик.
Извештајот нагласува дека развојот на вештачката интелигенција создава нови ризици. Брзото растење доведува до тоа неекспертски тимови да носат решенија на прототипски ниво во производните средини; резултатите се слабите точки, уцизите во влезните точки, уцени со injection-zafzzi и прекумерно овластени API интеграции што се одговорност на нивната брзопфалност.
Во 2025 година, количината на податоци што компаниите ги обработуваат преку апликациите за вештачка интелигенција и машинско учење достигна 18.033 терабајти, што е зголемување за 93% во споредба со претходната година. Овој обем е еквивалентен на големината од околу 3,6 милијарди дигитални фотографии. Политиките за спречување на губење на податоци, идентификувани во врска со ChatGPT, вклучуваат 410 милиони кршења на политики за заштита на податоци, што укажува на тоа дека широка гама од чувствителни податоци, од броеви социјално осигурување до изворен код, се во опасност.


