
Cybersecurity ang mga sistema ay hinog na para sa pagkagambala. Sa paglipas ng mga taon, dumami ang mga indibidwal na tool, bawat isa ay may sariling format ng data, na nagdudulot ng delubyo ng magkakaibang data. Gayundin, mayroong isang pandaigdigang kakulangan ng mga bihasang analyst ng cybersecurity na maaaring suriin ang data na iyon (at ang mga ito ay napakamahal kung mahahanap mo ang mga ito). Sa wakas, at ang mga hacker ay nagiging mas matalino at mas malikhain sa lahat ng oras. Ang AI ay dapat na maging lunas para sa mga isyung ito, ngunit ito ay limitado ang paggamit sa pagtugon sa problema sa laki dahil nangangailangan ito ng malaki, pinag-isipang imprastraktura. Sa artikulong ito, titingnan natin ang papel ng AI sa cybersecurity mga sistema at kung paano ito maaaring maging isang tunay na pagbabagong teknolohiya.
AI bilang Snake Oil
Maraming binanggit ang AI sa literatura sa marketing na naglalarawan ng mga solusyon sa cybersecurity, ngunit sa ngayon, hindi pa ito naging kasing pagbabago gaya ng iniisip mo. Sa kabila ng laki ng pamilihan na lumalaki sa isang 20.5 porsiyento ng tambalang taunang rate ng paglago, nananatiling mahirap gamitin ang AI sa mga problema sa seguridad. Kung pupunta ka sa isang modernong sentro ng operasyon ng seguridad (SOC), malamang na makakahanap ka ng ilang malalaking TV na may ilang mahirap basahin na dashboard at CNN, at mga security analyst na malamang na nahihirapan ang kanilang trabaho, dahil ginugugol nila ang kanilang oras sa manu-manong pag-uugnay ng data at sinusubukang malaman kung ano ang nangyayari sa kanilang negosyo sa ang mukha ng mas kumplikadong pag-atake. Kung ginagawa iyon ng mga tao, iyan ay nagtatanong, "Nasaan ang AI?"

Cybersecurity ay isang magulo na problema sa pagpapatakbo, at iyon ang maikling dahilan kung bakit naging mabagal ang AI sa pagbabago nito. Napakahirap na problema ang paghahanap ng mga banta sa isang negosyo sa daan-daang pinagmumulan ng telemetry kapag ang mga banta ay madalas na kapareho ng normal na aktibidad. Bukod dito, ang data mula sa bawat tool sa seguridad ay maaaring magkaroon ng iba't ibang anyo, at dapat itong gawing normal bago ito magamit upang sanayin ang isang AI system.
Anuman ang industriya at kaso ng paggamit, natututo ang AI mula sa data – ang AI engine dapat sanayin sa data upang masimulan nitong matutunan kung ano ang anomalya o hindi. Iyan ang napakagulo tungkol sa problema sa seguridad: ang data ng seguridad ng bawat enterprise ay mukhang, sa pinakamababa, medyo naiiba, na may iba't ibang mga tool at pattern ng pag-uugali, at sa maximum, ang data ay mukhang lubhang kakaiba. Walang ginintuang set ng pagsasanay sa seguridad na maaaring lisensyado tulad ng maaaring mayroon para sa mga sistema ng pagkilala sa imahe o pagsasalita. Kung gusto mong gumamit ng AI upang tugunan ang problema sa seguridad na kailangan mong likhain at makuha ang iyong sariling data.
Ang pag-normalize ng data upang maging kapaki-pakinabang ito sa isang AI engine ay isang malaking hamon. Napakahalaga ng problema na ang Scale AI, isang startup na lumilikha ng mga data API para sa pagpapaunlad ng AI na pangunahing nakatuon sa mga application ng walang driver na sasakyan, nakakuha ng $7 bilyong pagpapahalaga wala pang limang taon matapos itong itatag. Binibilang na ng Scale AI ang marami sa mga pinaka-makabagong organisasyon sa mundo bilang mga customer nito.
Ano ang dadalhin ng transformative AI
Ang AI sa seguridad sa kalaunan ay magiging transformative, malamang para sa opensa at depensa, ngunit iyon ay isang kuwento para sa isa pang araw. Dito, ang ibig sabihin ng "transformative" ay malawak na transformative, sa lahat ng bahagi ng seguridad, kaya't sa panimula nito, binabago nito kung paano nagpapatuloy ang isang enterprise tungkol sa seguridad. Sa ngayon, kailangan nating makuntento sa ilang limitadong mga application kung saan mapapabuti ng AI ang seguridad.
Gayunpaman, may ilang mga maliliwanag na lugar para sa AI sa seguridad; ang mga ito ay madaling mahanap sa pamamagitan ng pag-iisip sa pamamagitan ng problema sa data. Anong mga bahagi ng security stack ang bumubuo ng malinis, naisasanay na data? Ang email fraud at malware detection ay dalawang magandang halimbawa: ang AI engine maaaring matuto mula sa mga available na halimbawa ng phishing o mga lagda ng malware at makakita ng mga katulad na pagsasamantala. Maaaring gamitin ang data sa mga email ng customer at malware sandbox para sanayin ang mga modelo ng AI na nagpapagana sa mga produkto ng enterprise. Ang parehong pagsasanay ay mas mahirap ipatupad sa mga problema tulad ng pag-detect ng mga pag-atake na lumilipat sa gilid sa pamamagitan ng isang network (sabihin, mula sa firewall patungo sa server ng Active Directory hanggang sa isang server ng data), dahil ang pag-ilid na paggalaw na ito ay magmumukha nang kaunti sa bawat negosyo.
Ang paggawa ng AI na malawakang magpoprotekta sa isang enterprise sa lahat ng mga digital na operasyon nito ay sa paraang katulad ng mga pagsisikap na ginagawa ng mga kumpanya ng walang driver na sasakyan ngayon. Halimbawa, mula noong 2009, ang software ng walang driver na sasakyan ng Waymo ay nagsanay na 15 bilyong milya ng simulate na pagmamaneho at higit sa 20 milyong milya ng pampublikong karanasan sa pagmamaneho. Ang Waymo ay may mahigpit na diskarte sa pagsubok sa iba't ibang antas ng katapatan (simulation, closed course, real world), pagpapatupad ng mga senaryo na may libu-libong mga variation, habang nangongolekta ng data para sa layunin ng pagpapabuti.
Hindi ito perpektong pagkakatulad para sa AI sa seguridad, ngunit ito ay medyo maganda – pagsubok gamit ang simulate na data, pagsubok sa mga lab environment na may simulate o tunay na pag-atake, at pagsubok sa mga operasyon sa totoong mundo sa iba't ibang hanay ng mga negosyo. Ang mga problema sa seguridad na may natural na pag-access sa mas malinis na data ay lalabas sa mga tunay na produktong pinapagana ng AI kaysa sa mas mahirap na mga problema sa data sa buong stack ng seguridad ng enterprise. Mangangailangan ng oras at kapital para makarating doon, at ang mga inobasyon na walang awa na nakatutok sa problema sa data ang mauuna at pangunahin sa pag-unlock ng malawak na pagbabago. Ngayon, maraming mga tool sa seguridad ang hindi lamang tumutuon sa normalisasyon ng data dahil malamang na sila ay nakatago sa mga partikular na punto ng sakit sa pangkalahatang imprastraktura.
Ano ang magiging hitsura ng transformative AI sa seguridad
Isipin na ang bawat inisyatiba ng IT, pagsasaayos, log ng seguridad, at alerto ay maaaring suriin ng nangungunang eksperto sa seguridad ng tao sa buong mundo sa partikular na lugar na iyon nang real time, nang walang pagkaantala sa mga operasyon ng negosyo. Isipin na ang mga analyst ng negosyo ay maaaring sumangguni sa at makakuha ng direksyon mula sa ekspertong iyon. Ang AI sa seguridad ay mararamdaman sa kalaunan.
paano? Ang mga produktong binuo sa maalalahanin na mga asset ng data, na nagpapababa sa pagiging kumplikado ng data, ay magiging mga hari ng kategorya, kung hindi, ang produkto ay hindi gagana mula sa customer patungo sa customer at ito ay magiging isang produkto na may mga margin tulad ng serbisyo at hindi susukat. (Kawili-wiling natagpuan ni Andreesen Horowitz na ang karamihan sa kanilang mga kumpanya ng AI sa negosyo ay may mas mababang mga margin kaysa sa maihahambing na mga negosyo ng SaaS dahil sa mga likas na gastos sa pagbuo at pag-scale ng AI.)
Ang mga susunod na hari ng kategorya ay kailangan munang mamuhunan sa imprastraktura at pagkolekta ng data, malamang sa loob ng maraming taon, bago ang kanilang data ay tunay na maituturing na asset at tumulong sa pagpapahusay sa sarili ng kanilang produkto. Gayunpaman, sa sandaling makakuha ang mga hari ng kumpanyang ito ng isang tunay na asset ng data para sa AI, ang kanilang bilis ng pagbabago ay magiging mahirap kung hindi imposibleng itugma ng mga kakumpitensya, at sila ay makoronahan bilang isang hari ng kategorya, hangga't nagagawa pa rin nilang mapanatili ang isang intuitive na produkto. Kaya't kung paanong ang kategorya ng Search Engine ay mabilis na pinagsama sa Google, ganoon din ang mangyayari sa mga solusyon sa cybersecurity na masinsinang data. Sa partikular, hanapin ang pangunahing pagsasama-sama sa Impormasyon sa Seguridad at Pamamahala ng Kaganapan (SIEM), Pinalawak na Pagtuklas at Tugon (XDR), Endpoint Detection and Response (EDR), at Network Detection and Response (NDR) merkado.
Kaya, ang AI ay umuusbong sa seguridad muna sa mas maliliit na problema kung saan may mas kaunting pagiging kumplikado ng data, tulad ng nabanggit sa pandaraya sa email at mga halimbawa ng malware kanina. Ang AI ay dahan-dahang magde-deploy sa mas kumplikadong mga problema sa data, ngunit ang mga produkto lamang na walang awa na nakatuon sa pamamahala ng pagiging kumplikado ng data ang lalabas na may makabuluhang Mga makina ng AI. Upang maging epektibo, ang isang programa sa seguridad na hinimok ng AI ay dapat na mangolekta ng data mula sa lahat ng magagamit na tool sa seguridad at mga feed ng pagbabanta, at pagkatapos ay gawing normal ang data na iyon upang maging kapaki-pakinabang ito para sa pagsasanay sa AI engine. Iyan ang magiging hitsura ng hinaharap ng AI sa cybersecurity.
Tungkol sa Author
Si Sam Jones ay vice president ng product management sa Stellar Cyber, Inc. Siya ay isang bihasang product development leader na may track record sa pagbuo ng AI at mga produktong panseguridad na gusto ng mga customer. Mayroon siyang malakas na background sa AI/ML, imprastraktura ng data, seguridad, SaaS, disenyo ng produkto, at pagtatanggol. Si Sam ay humawak ng mga posisyon sa produkto at engineering sa mga kumpanya kabilang ang Palantir Technologies at Shield AI, at nagtrabaho para sa US Air Force sa diskarte sa cyber defense. Nakuha niya ang kanyang Bachelor's degree sa Electrical and Computer Engineering mula sa Cornell University.


