AI แบบตัวแทนเทียบกับ AI แบบสร้างสรรค์ในด้านความปลอดภัยทางไซเบอร์: ความแตกต่างที่สำคัญและกรณีการใช้งาน
องค์กรขนาดกลางเผชิญกับภัยคุกคามทางไซเบอร์ระดับองค์กรขนาดใหญ่ โดยมีทีมรักษาความปลอดภัยขนาดเล็ก ทำให้เกิดความต้องการอย่างเร่งด่วนสำหรับโซลูชันที่ขับเคลื่อนด้วย AI SOC ความสามารถที่ผสานรวมกัน Open XDR ด้วยโซลูชันด้านความปลอดภัยทางไซเบอร์ที่ใช้ AI เชิงตัวแทน เพื่อตรวจจับ ตรวจสอบ และตอบสนองต่อการโจมตีที่ซับซ้อนโดยอัตโนมัติ โดยไม่ทำให้ผู้เชี่ยวชาญที่เป็นมนุษย์ต้องรับภาระมากเกินไป
ภูมิทัศน์ด้านความมั่นคงปลอดภัยไซเบอร์เปลี่ยนแปลงไปอย่างมาก ปัจจุบันกลุ่มภัยคุกคามขั้นสูงที่ยังคงดำเนินอยู่ได้นำเทคนิคที่เสริมประสิทธิภาพด้วย AI มาใช้เพื่อใช้ประโยชน์จากสภาพแวดล้อมขององค์กรได้เร็วกว่าที่ทีมรักษาความปลอดภัยแบบดั้งเดิมจะตอบสนองได้ การโจมตีแบบฟิชชิ่งที่ขับเคลื่อนด้วย AI ที่เพิ่มขึ้นอย่างรวดเร็วเมื่อเร็วๆ นี้ ซึ่งเพิ่มขึ้นถึง 703% ในปี 2024 แสดงให้เห็นว่าผู้ก่อภัยคุกคามใช้ปัญญาประดิษฐ์เป็นอาวุธเพื่อหลีกเลี่ยงการป้องกันแบบเดิมได้อย่างไร การเร่งตัวขึ้นนี้บังคับให้ผู้นำด้านความปลอดภัยต้องพิจารณาแนวทางพื้นฐานในการตรวจจับและรับมือกับภัยคุกคามอีกครั้ง
ความท้าทายนี้ไม่ได้จำกัดอยู่แค่เพียงการติดตั้งเครื่องมือง่ายๆ เท่านั้น ศูนย์ปฏิบัติการด้านความปลอดภัยได้รับการแจ้งเตือนหลายพันครั้งในแต่ละวัน ทำให้เกิดความเหนื่อยล้าจากการวิเคราะห์ที่บดบังภัยคุกคามที่แท้จริง วิธีการแบบเดิมที่อาศัยการตีความโดยมนุษย์และการตอบสนองด้วยตนเองนั้นไม่สามารถเทียบได้กับความเร็วและขนาดของการโจมตีสมัยใหม่ เหตุการณ์แรนซัมแวร์ Change Healthcare ซึ่งส่งผลกระทบต่อข้อมูลผู้ป่วยมากกว่า 100 ล้านรายและมีมูลค่าความเสียหาย 2.457 พันล้านดอลลาร์สหรัฐ เป็นตัวอย่างที่แสดงให้เห็นว่าการโจมตีที่ซับซ้อนใช้ประโยชน์จากช่องโหว่ในความสามารถในการตรวจจับและการตอบสนองอัตโนมัติได้อย่างไร
กระบวนทัศน์ AI สองแบบที่แตกต่างกันได้ถือกำเนิดขึ้นเป็นองค์ประกอบสำคัญของการป้องกันความมั่นคงปลอดภัยทางไซเบอร์สมัยใหม่ ได้แก่ AI เชิงสร้างสรรค์ (generative AI) และ AI เชิงตัวแทน (agentic AI) แม้ว่าเทคโนโลยีทั้งสองจะมอบการปรับปรุงด้านความปลอดภัยอย่างมีนัยสำคัญ แต่โดยพื้นฐานแล้วมีวัตถุประสงค์ที่แตกต่างกันในการปกป้องทรัพย์สินขององค์กร การทำความเข้าใจความแตกต่างเหล่านี้จึงเป็นสิ่งสำคัญสำหรับสถาปนิกด้านความปลอดภัยที่กำลังออกแบบกลยุทธ์การป้องกันที่ครอบคลุม

AI และการเรียนรู้ของเครื่องช่วยปรับปรุงความปลอดภัยทางไซเบอร์ขององค์กรได้อย่างไร
เชื่อมโยงทุกจุดในภูมิทัศน์ภัยคุกคามที่ซับซ้อน

สัมผัสประสบการณ์การรักษาความปลอดภัยที่ขับเคลื่อนด้วย AI ในการดำเนินการ!
ค้นพบ AI อันล้ำสมัยของ Stellar Cyber เพื่อการตรวจจับและตอบสนองภัยคุกคามในทันที กำหนดเวลาการสาธิตของคุณวันนี้!
ทำความเข้าใจเกี่ยวกับ AI เชิงสร้างสรรค์ในการปฏิบัติการด้านความปลอดภัยทางไซเบอร์
ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) ในด้านความมั่นคงปลอดภัยไซเบอร์ ทำหน้าที่เป็นผู้ช่วยอัจฉริยะที่ประมวลผลข้อมูลที่ไม่มีโครงสร้างจำนวนมหาศาล เพื่อสร้างข้อมูลเชิงลึกและคำแนะนำที่มนุษย์สามารถอ่านได้ เทคโนโลยีนี้โดดเด่นในงานที่ต้องใช้การสร้างเนื้อหา การสรุปรูปแบบ และการตีความภาษาธรรมชาติของเหตุการณ์ด้านความปลอดภัยที่ซับซ้อน
โมเดลภาษาขนาดใหญ่ช่วยให้ทีมรักษาความปลอดภัยสามารถโต้ตอบกับโครงสร้างพื้นฐานด้านความปลอดภัยโดยใช้คำถามภาษาธรรมชาติ นักวิเคราะห์ความปลอดภัยสามารถถามคำถาม เช่น "ระบุพฤติกรรมที่ผิดปกติของผู้ดูแลระบบนอกเวลาทำการของสัปดาห์ที่แล้ว" และรับคำตอบที่มีโครงสร้างพร้อมข้อมูลที่เกี่ยวข้อง วิธีการแบบสนทนานี้ช่วยลดอุปสรรคทางเทคนิคในการตรวจสอบภัยคุกคามได้อย่างมาก ช่วยให้นักวิเคราะห์ที่มีประสบการณ์น้อยสามารถทำการวิจัยด้านความปลอดภัยที่ซับซ้อนได้
ผลกระทบในโลกแห่งความเป็นจริงปรากฏชัดในสถานการณ์การตอบสนองต่อเหตุการณ์ ทีมรักษาความปลอดภัยของ Google แสดงให้เห็นว่า ปัญญาประดิษฐ์ (AI) เชิงสร้างสรรค์ (generative AI) สามารถสรุปเหตุการณ์ได้เร็วกว่าการวิเคราะห์ของมนุษย์ถึง 51% พร้อมทั้งปรับปรุงคุณภาพโดยรวมของเอกสารประกอบ เทคโนโลยีนี้ประมวลผลข้อมูลเหตุการณ์ที่ซับซ้อน ซึ่งรวมถึงบันทึก รูปแบบการรับส่งข้อมูลเครือข่าย และตัวบ่งชี้การโจมตี เพื่อสร้างเรื่องราวที่สอดคล้องกัน ซึ่งผู้บริหารระดับสูงสามารถเข้าใจได้โดยไม่ต้องมีการตีความทางเทคนิค
ความสามารถหลักด้าน AI เชิงสร้างสรรค์ในด้านความปลอดภัย
ระบบ AI เชิงสร้างสรรค์ (Generative AI) โดดเด่นในฟังก์ชันความปลอดภัยที่สำคัญหลายประการ ซึ่งจำเป็นต้องมีการสังเคราะห์เนื้อหาและการสื่อสารระหว่างมนุษย์ การรายงานเหตุการณ์อัตโนมัติเป็นหนึ่งในแอปพลิเคชันที่ใช้งานได้รวดเร็วที่สุด โดย AI จะวิเคราะห์เหตุการณ์ด้านความปลอดภัยและสรุปข้อมูลโดยละเอียดสำหรับผู้มีส่วนได้ส่วนเสียต่างๆ รายงานสำหรับผู้บริหารมุ่งเน้นไปที่ผลกระทบทางธุรกิจและการประเมินความเสี่ยง ขณะที่เอกสารทางเทคนิคให้การวิเคราะห์ทางนิติวิทยาศาสตร์อย่างละเอียดสำหรับวิศวกรความปลอดภัย
การสังเคราะห์ข้อมูลภัยคุกคามช่วยให้สามารถประมวลผลแหล่งข้อมูลที่หลากหลายได้อย่างรวดเร็ว ระบบ AI สามารถวิเคราะห์ข้อมูลจากภัยคุกคาม ฟอรัมในเว็บมืด และฐานข้อมูลช่องโหว่ เพื่อสร้างข้อมูลที่สามารถนำไปปฏิบัติได้จริงและเหมาะสมกับความเสี่ยงเฉพาะขององค์กร ความสามารถนี้มีประโยชน์อย่างยิ่งสำหรับองค์กรขนาดกลางที่ขาดทีมวิเคราะห์ข้อมูลภัยคุกคามโดยเฉพาะ
การตระหนักรู้และการฝึกอบรมด้านความปลอดภัยได้รับประโยชน์อย่างมากจากความสามารถของ AI เชิงสร้างสรรค์ เทคโนโลยีนี้สร้างการจำลองฟิชชิ่งที่สมจริงและพฤติกรรมของศัตรูแบบไดนามิกสำหรับการฝึกซ้อมของทีมแดง ซึ่งแตกต่างจากสื่อการฝึกอบรมแบบคงที่ สถานการณ์จำลองที่สร้างโดย AI จะปรับให้เข้ากับสภาพแวดล้อมภัยคุกคามและช่องโหว่ขององค์กรในปัจจุบัน
การปกปิดข้อมูลและการรักษาความเป็นส่วนตัวผ่านการสร้างข้อมูลสังเคราะห์ช่วยปกป้องข้อมูลสำคัญระหว่างการวิจัยและฝึกอบรมด้านความปลอดภัย องค์กรต่างๆ สามารถพัฒนาและทดสอบระบบควบคุมความปลอดภัยโดยใช้ชุดข้อมูลที่สมจริงซึ่งไม่มีข้อมูลลูกค้าหรือพนักงานจริง
ข้อจำกัดและข้อควรพิจารณาในการดำเนินงาน
แม้จะมีศักยภาพสูง แต่ AI เชิงสร้างสรรค์ (generative AI) ก็ยังคงทำงานภายใต้ข้อจำกัดเฉพาะที่จำกัดประสิทธิภาพในการปฏิบัติงานด้านความปลอดภัยแบบอัตโนมัติ ข้อกำหนดการกำกับดูแลโดยมนุษย์ยังคงมีความสำคัญอย่างยิ่งสำหรับเนื้อหาทั้งหมดที่ AI สร้างขึ้น เนื่องจากระบบเหล่านี้อาจสร้างภาพหลอนหรือตีความบริบทด้านความปลอดภัยที่ซับซ้อนผิดพลาดได้ รายงานเหตุการณ์หรือการประเมินภัยคุกคามที่ AI สร้างขึ้นทุกครั้งจำเป็นต้องได้รับการตรวจสอบโดยมนุษย์ก่อนจึงจะสามารถตัดสินใจดำเนินการได้
ความหน่วงในการตอบสนองสร้างความท้าทายในสถานการณ์ความปลอดภัยที่จำกัดเวลา แม้ว่า AI เชิงสร้างสรรค์ (generative AI) จะสามารถเร่งการวิเคราะห์และจัดทำเอกสารได้ แต่ก็ไม่สามารถดำเนินการควบคุมหรือปรับเปลี่ยนการตั้งค่าความปลอดภัยโดยอัตโนมัติได้ในทันที เทคโนโลยีนี้ทำหน้าที่เป็นตัวคูณกำลังสำหรับนักวิเคราะห์ที่เป็นมนุษย์ มากกว่าที่จะมาแทนที่การตอบสนองอัตโนมัติที่รวดเร็ว
การพึ่งพาบริบทจำกัดประสิทธิภาพในการจัดการกับรูปแบบการโจมตีใหม่ๆ หรือปัจจัยแวดล้อมที่ไม่ได้แสดงในข้อมูลการฝึก ระบบ AI เชิงกำเนิดจะทำงานได้ดีที่สุดเมื่อวิเคราะห์เวกเตอร์การโจมตีที่รู้จักและรูปแบบความปลอดภัยที่เป็นที่ยอมรับ แต่อาจประสบปัญหากับช่องโหว่แบบซีโร่เดย์หรือเทคนิคการโจมตีที่ซับซ้อน
การสำรวจ AI เชิงตัวแทนในการป้องกันความปลอดภัยทางไซเบอร์
Agentic AI ถือเป็นวิวัฒนาการขั้นพื้นฐานของระบบอัตโนมัติด้านความปลอดภัยทางไซเบอร์ โดยนำ Agentic AI อัตโนมัติมาใช้ ซึ่งสามารถวิเคราะห์ ตัดสินใจ และตอบสนองได้อย่างอิสระ โดยไม่ต้องมีมนุษย์คอยควบคุมดูแลตลอดเวลา ต่างจาก Generative AI ที่ช่วยวิเคราะห์โดยมนุษย์ ระบบ Agentic AI ทำงานเสมือนผู้เชี่ยวชาญด้านความปลอดภัยดิจิทัล จัดการเวิร์กโฟลว์ความปลอดภัยที่ซับซ้อนอย่างอัตโนมัติ ตั้งแต่การตรวจจับไปจนถึงการแก้ไข
สถาปัตยกรรมนี้ประกอบด้วยเอเจนต์ AI เฉพาะทางที่ทำงานร่วมกันเพื่อจัดการด้านต่างๆ ของปฏิบัติการด้านความปลอดภัย เอเจนต์ตรวจจับจะตรวจสอบสตรีมข้อมูลระยะไกลอย่างต่อเนื่องโดยใช้การเรียนรู้แบบไม่มีผู้สอนเพื่อระบุความผิดปกติทางพฤติกรรม เอเจนต์สหสัมพันธ์จะวิเคราะห์ความสัมพันธ์ระหว่างเหตุการณ์ด้านความปลอดภัยที่แตกต่างกัน และสร้างเรื่องราวการโจมตีที่ครอบคลุม เอเจนต์ตอบสนองจะดำเนินการควบคุมและแก้ไขโดยอิงตามนโยบายที่กำหนดไว้ล่วงหน้าและการประเมินความเสี่ยงแบบเรียลไทม์
ระบบมัลติเอเจนต์เหล่านี้แสดงให้เห็นถึงความสามารถที่ไม่เคยมีมาก่อนในการระบุและกำจัดภัยคุกคามโดยอัตโนมัติ งานวิจัยชี้ให้เห็นว่าระบบ AI แบบเอเจนต์สามารถลดเวลาในการตรวจจับภัยคุกคามจากหลายวันหรือหลายชั่วโมงเหลือเพียงไม่กี่นาที ผ่านการตรวจสอบอย่างต่อเนื่องและการจดจำรูปแบบอัจฉริยะ สถานการณ์ความมั่นคงปลอดภัยไซเบอร์ในปี 2024 ซึ่งเหตุการณ์แรนซัมแวร์เพิ่มขึ้น 126% และการโจมตีแบบฟิชชิ่งที่ขับเคลื่อนด้วย AI เพิ่มขึ้น 703% จำเป็นต้องมีความสามารถในการตอบสนองอัตโนมัติในระดับนี้
การตัดสินใจและการตอบสนองแบบอิสระ
ลักษณะเด่นของความปลอดภัยทางไซเบอร์ของ AI แบบเอเจนต์ คือความสามารถในการตัดสินใจและดำเนินการตอบโต้โดยอิสระโดยไม่ต้องได้รับอนุญาตจากมนุษย์ เมื่อตรวจพบการเคลื่อนไหวด้านข้าง เอเจนต์สหสัมพันธ์จะรวบรวมหลักฐานจากแหล่งข้อมูลหลายแหล่งโดยอัตโนมัติ ขณะที่เอเจนต์ตรวจจับจะประเมินระดับความซับซ้อนของภัยคุกคาม จากนั้นเอเจนต์ตอบสนองจะดำเนินมาตรการควบคุมที่เหมาะสมตามเกณฑ์ความเสี่ยงที่กำหนดไว้ล่วงหน้าและนโยบายขององค์กร
ความสามารถอัตโนมัตินี้พิสูจน์ให้เห็นถึงความสำคัญอย่างยิ่งยวดต่อภัยคุกคามขั้นสูงที่ต่อเนื่องและฉวยโอกาสจากช่องว่างเวลาระหว่างการตรวจจับและการตอบสนองของมนุษย์ ปฏิบัติการจารกรรม Salt Typhoon ซึ่งดำเนินการอย่างไร้การตรวจจับเป็นเวลาหนึ่งถึงสองปีในบริษัทโทรคมนาคมเก้าแห่งของสหรัฐอเมริกา แสดงให้เห็นว่าผู้โจมตีที่ซับซ้อนใช้ประโยชน์จากกระบวนการสืบสวนที่มนุษย์เป็นผู้ดำเนินการอย่างเชื่องช้าได้อย่างไร ระบบ AI เชิงตัวแทนสามารถตรวจจับรูปแบบการเข้าถึงเครือข่ายที่ผิดปกติและการยกระดับสิทธิ์ ซึ่งเป็นลักษณะเฉพาะของปฏิบัติการนี้
ไฮเปอร์ออโตเมชัน (Hyperautomation) แสดงให้เห็นถึงวิวัฒนาการของการประสานการทำงาน การทำงานอัตโนมัติ และการตอบสนองด้านความปลอดภัย (SOAR) แบบดั้งเดิม ผ่านความสามารถในการใช้เหตุผลเชิงปัญญาประดิษฐ์ (AI) ในขณะที่ระบบอัตโนมัติแบบเดิมดำเนินการตามแนวทางที่กำหนดไว้ล่วงหน้า ไฮเปอร์ออโตเมชันช่วยให้ระบบสามารถปรับเวิร์กโฟลว์ตามลักษณะของภัยคุกคามและปัจจัยแวดล้อมได้ ตัวแทน AI สามารถกักกันจุดสิ้นสุดที่ถูกบุกรุกโดยอัตโนมัติ รวบรวมหลักฐานทางนิติวิทยาศาสตร์ อัปเดตนโยบายความปลอดภัย และแจ้งเตือนผู้มีส่วนได้ส่วนเสียโดยไม่ต้องมีการแทรกแซงจากมนุษย์ ขณะเดียวกันก็รักษาบันทึกการตรวจสอบอย่างละเอียด
การนำไปใช้ในโลกแห่งความเป็นจริงและผลกระทบที่วัดได้
เหตุการณ์ด้านความปลอดภัยล่าสุดแสดงให้เห็นถึงความจำเป็นอย่างยิ่งยวดสำหรับความสามารถในการตอบสนองอัตโนมัติที่ระบบ AI แบบเอเจนต์มีให้ การเปิดเผยข้อมูลประจำตัว 16 พันล้านรายการที่ค้นพบในเดือนมิถุนายน 2025 เป็นผลมาจากแคมเปญมัลแวร์ขโมยข้อมูล (infostealer) ที่เครื่องมือรักษาความปลอดภัยแบบเดิมไม่สามารถตรวจจับได้อย่างมีประสิทธิภาพ ระบบ AI แบบเอเจนต์ที่ติดตั้งระบบตรวจสอบพฤติกรรมสามารถระบุรูปแบบการเก็บเกี่ยวข้อมูลประจำตัวที่ผิดปกติและบล็อกความพยายามในการขโมยข้อมูลได้โดยอัตโนมัติ
การละเมิดข้อมูลของ Snowflake ส่งผลกระทบต่อองค์กร 165 แห่ง ผ่านการขโมยข้อมูลประจำตัวที่ใช้เข้าถึงอินสแตนซ์ของลูกค้า การวิเคราะห์พฤติกรรมผู้ใช้ที่ขับเคลื่อนด้วย AI สามารถตรวจจับรูปแบบการค้นหาที่ผิดปกติ ความไม่สอดคล้องทางภูมิศาสตร์ และปริมาณข้อมูลที่ผิดปกติซึ่งบ่งชี้ว่าบัญชีถูกบุกรุกได้ ระบบตอบสนองอัตโนมัติจะระงับเซสชันที่น่าสงสัยและแยกบัญชีที่ได้รับผลกระทบภายในไม่กี่นาทีหลังจากตรวจพบกิจกรรมที่ผิดปกติ
| ประเภทการโจมตี | เวลาตรวจจับแบบดั้งเดิม | เวลาตรวจจับ AI ของตัวแทน | ศักยภาพในการลดต้นทุน |
| การโจมตีตามข้อมูลประจำตัว | 120 425-วัน | นาที ถง ชั่วโมง | 60-80% |
| การปรับใช้แรนซัมแวร์ | เฉลี่ย 287 วัน | วินาทีเป็นนาที | 70-90% |
| การเคลื่อนไหวด้านข้าง | เฉลี่ย 245 วัน | เรียลไทม์ | 65-85% |
| การกรองข้อมูล | 156 210-วัน | นาที | 75-95% |
ความแตกต่างหลักระหว่าง AI แบบตัวแทนและแบบสร้างสรรค์
ความแตกต่างพื้นฐานระหว่างแนวทาง AI เหล่านี้อยู่ที่ความสัมพันธ์กับการกำกับดูแลและอำนาจการตัดสินใจของมนุษย์ AI เชิงกำเนิด (Generative AI) ทำหน้าที่เป็นผู้ช่วยขั้นสูง ให้คำแนะนำ สรุป และวิเคราะห์ข้อมูล ซึ่งจำเป็นต้องมีการตีความและการอนุมัติจากมนุษย์ AI แบบตัวแทน (Agentic AI) ทำงานเป็นเอเจนต์อิสระ ตัดสินใจและดำเนินการต่างๆ ได้อย่างอิสระตามเป้าหมายและนโยบายที่กำหนดไว้ล่วงหน้า
ความเป็นอิสระในการตัดสินใจถือเป็นข้อแตกต่างที่สำคัญที่สุดในการปฏิบัติงาน ระบบ AI เชิงสร้างสรรค์ตอบสนองต่อคำกระตุ้นและคำถาม สร้างเนื้อหาตามคำขอของมนุษย์ ระบบเหล่านี้ไม่สามารถเริ่มต้นการดำเนินการหรือแก้ไขการกำหนดค่าระบบได้อย่างอิสระ ระบบ AI เชิงตัวแทนจะประเมินสภาพแวดล้อมอย่างต่อเนื่อง ระบุภัยคุกคามที่อาจเกิดขึ้น และดำเนินการตอบสนองโดยไม่ต้องรอการอนุมัติจากมนุษย์
ความสามารถในการตอบสนองมีความแตกต่างกันอย่างมากทั้งในด้านขอบเขตและความฉับไว AI แบบสร้าง (Generative AI) จะสร้างเอกสาร การวิเคราะห์ และคำแนะนำที่มนุษย์ต้องตรวจสอบและดำเนินการ ทำให้เกิดความล่าช้าโดยธรรมชาติระหว่างการตรวจจับภัยคุกคามและการดำเนินการตอบสนอง ระบบ AI แบบตัวแทน (Agentic AI) สามารถดำเนินขั้นตอนการควบคุม แยกระบบที่ถูกบุกรุก และดำเนินมาตรการรับมือได้ภายในไม่กี่วินาทีหลังจากระบุภัยคุกคาม
การบูรณาการการปฏิบัติงานและฟังก์ชันเสริม
สถาปัตยกรรมความปลอดภัยสมัยใหม่ได้รับประโยชน์สูงสุดจากแนวทางแบบบูรณาการที่ผสานรวมกระบวนทัศน์ AI ทั้งสองเข้าด้วยกันอย่างมีกลยุทธ์ แนวทางของ Stellar Cyber แสดงให้เห็นถึงการบูรณาการนี้ผ่าน Multi-Layer AI™ ซึ่งใช้ AI เชิงสร้างสรรค์เพื่อช่วยนักวิเคราะห์ ขณะเดียวกันก็ใช้ AI เชิงตัวแทนสำหรับปฏิบัติการรักษาความปลอดภัยแบบอัตโนมัติ โมเดลไฮบริดนี้ช่วยให้องค์กรต่างๆ ได้รับประโยชน์จากทั้งการวิเคราะห์เสริมด้วยมนุษย์และการตอบสนองด้วยความเร็วของเครื่องจักร
ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Generative AI) จัดการงานที่ต้องใช้การสื่อสารของมนุษย์และการตีความที่ซับซ้อน การสร้างรายงานเหตุการณ์ การบรรยายสรุปสำหรับผู้บริหาร และการฝึกอบรมความตระหนักด้านความปลอดภัย ได้รับประโยชน์จากความสามารถด้านภาษาธรรมชาติที่ทำให้ผู้มีส่วนได้ส่วนเสียที่ไม่ใช่ด้านเทคนิคสามารถเข้าถึงข้อมูลทางเทคนิคได้ แอปพลิเคชันเหล่านี้จำเป็นต้องมีการกำกับดูแลโดยมนุษย์เพื่อให้มั่นใจถึงความถูกต้องและความเหมาะสมกับบริบท
Agentic AI จัดการงานปฏิบัติการที่ต้องใช้เวลาและเร่งด่วน ซึ่งการตอบสนองทันทีเป็นสิ่งสำคัญอย่างยิ่ง การแยกเครือข่าย การระงับข้อมูลประจำตัว การกักกันมัลแวร์ และการแพตช์ระบบสามารถเกิดขึ้นได้โดยอัตโนมัติตามการประเมินภัยคุกคามแบบเรียลไทม์ การดำเนินการอัตโนมัติเหล่านี้ช่วยป้องกันการโจมตีแบบขยายวงกว้าง ขณะที่นักวิเคราะห์มนุษย์มุ่งเน้นไปที่การปรับปรุงความปลอดภัยเชิงกลยุทธ์
การบูรณาการจำเป็นต้องมีการพัฒนานโยบายอย่างรอบคอบ ซึ่งกำหนดระดับความเป็นอิสระที่เหมาะสมสำหรับสถานการณ์ภัยคุกคามที่แตกต่างกัน เหตุการณ์ที่มีความเสี่ยงต่ำอาจกระตุ้นให้เกิดการตอบสนองอัตโนมัติ ในขณะที่สถานการณ์ที่มีผลกระทบสูงอาจต้องได้รับอนุญาตจากมนุษย์ก่อนดำเนินการเอเจนต์ แนวทางที่สมดุลนี้ช่วยให้มั่นใจได้ว่าจะตอบสนองได้อย่างรวดเร็วโดยไม่กระทบต่อการควบคุมขององค์กรในการตัดสินใจด้านความปลอดภัยที่สำคัญ
กรณีการใช้งานเฉพาะและสถานการณ์การใช้งาน
การประยุกต์ใช้ AI เชิงสร้างสรรค์ในการปฏิบัติการด้านความปลอดภัย
การสร้างรายงานเหตุการณ์เป็นหนึ่งในการประยุกต์ใช้ AI เชิงสร้างสรรค์ที่วัดผลได้รวดเร็วและรวดเร็วที่สุดในการปฏิบัติงานด้านความปลอดภัย ทีมรักษาความปลอดภัยสามารถประมวลผลเหตุการณ์ด้านความปลอดภัยที่ซับซ้อนซึ่งเกี่ยวข้องกับระบบ ผู้ใช้ และเวกเตอร์การโจมตีที่หลากหลาย เพื่อสร้างสรุปเหตุการณ์ที่ครอบคลุมได้ภายในไม่กี่นาที แทนที่จะเป็นหลายชั่วโมง รายงานเหล่านี้จะปรับความลึกทางเทคนิคและจุดเน้นโดยอัตโนมัติตามกลุ่มเป้าหมาย ผู้นำระดับสูงจะได้รับการประเมินผลกระทบทางธุรกิจ ขณะที่ทีมเทคนิคจะได้รับการวิเคราะห์ทางนิติวิทยาศาสตร์อย่างละเอียด
การค้นหาภัยคุกคามด้วยภาษาธรรมชาติช่วยให้นักวิเคราะห์ความปลอดภัยสามารถสอบถามโครงสร้างพื้นฐานด้านความปลอดภัยของตนได้โดยใช้อินเทอร์เฟซแบบสนทนา แทนที่จะสร้างแบบสอบถามฐานข้อมูลที่ซับซ้อนหรือสำรวจคอนโซลความปลอดภัยหลายคอนโซล นักวิเคราะห์สามารถถามคำถามเช่น "แสดงกิจกรรมบัญชีที่ได้รับสิทธิพิเศษทั้งหมดนอกเวลาทำการในสัปดาห์ที่ผ่านมา" และรับคำตอบที่มีโครงสร้างพร้อมบริบทและตัวบ่งชี้ความเสี่ยงที่เกี่ยวข้อง ความสามารถนี้ทำให้การวิเคราะห์ความปลอดภัยขั้นสูงเป็นประชาธิปไตย ช่วยให้นักวิเคราะห์ระดับต้นสามารถดำเนินการตรวจสอบที่ซับซ้อนได้
เอกสารความปลอดภัยอัตโนมัติช่วยจัดการกับหนึ่งในความท้าทายที่ยั่งยืนที่สุดในการปฏิบัติงานด้านความปลอดภัย นั่นคือ การรักษาขั้นตอน นโยบาย และคู่มือการรับมือกับเหตุการณ์ด้านความปลอดภัยให้ถูกต้องและเป็นปัจจุบัน Generative AI สามารถวิเคราะห์การควบคุมความปลอดภัยที่มีอยู่ เหตุการณ์ล่าสุด และข้อมูลภัยคุกคามปัจจุบัน เพื่อสร้างเอกสารที่อัปเดต ซึ่งสะท้อนถึงสถานะความปลอดภัยขององค์กรและภูมิทัศน์ภัยคุกคามที่เกิดขึ้น
การนำ AI เชิงตัวแทนไปใช้ในการดำเนินงานอัตโนมัติ
การคัดกรองการแจ้งเตือนแบบอัตโนมัติแสดงให้เห็นถึงความสามารถของ AI ในการจัดการปริมาณการแจ้งเตือนด้านความปลอดภัยจำนวนมหาศาลที่เกิดขึ้นในยุคปัจจุบัน SOCระบบ AI จะประเมินการแจ้งเตือนแต่ละรายการโดยพิจารณาจากปัจจัยบริบทหลายประการ รวมถึงความสำคัญของสินทรัพย์ รูปแบบพฤติกรรมของผู้ใช้ ความสัมพันธ์ของข้อมูลข่าวกรองภัยคุกคาม และสภาพแวดล้อม แตกต่างจากระบบที่ใช้กฎเกณฑ์คงที่ ระบบ AI จะเรียนรู้จากข้อเสนอแนะของนักวิเคราะห์อย่างต่อเนื่องเพื่อปรับปรุงความแม่นยำในการคัดกรองและลดอัตราการแจ้งเตือนผิดพลาด
การนำ AI มาใช้ของมหาวิทยาลัยซูริกแสดงให้เห็นถึงประโยชน์ในทางปฏิบัติ โดยที่ AI แบบเอเจนต์ช่วยให้นักวิเคราะห์สามารถแก้ไขเหตุการณ์ได้ภายใน 10 นาที แทนที่จะใช้เวลานานหลายวัน ระบบจะเชื่อมโยงการแจ้งเตือนกับเครื่องมือรักษาความปลอดภัยหลายตัวโดยอัตโนมัติ ขจัดการแจ้งเตือนซ้ำซ้อน และให้บริบทที่ครอบคลุมซึ่งช่วยให้สามารถตัดสินใจได้อย่างรวดเร็ว
ความสัมพันธ์เชิงภัยคุกคามแบบข้ามโดเมน (Cross-domain threat correlation) ถือเป็นความสามารถที่ซับซ้อนที่สุดของ AI แบบเอเจนต์ โดยวิเคราะห์กิจกรรมต่างๆ ทั่วทั้งอุปกรณ์ปลายทาง เครือข่าย สภาพแวดล้อมคลาวด์ และระบบระบุตัวตน เพื่อระบุรูปแบบการโจมตีที่ครอบคลุมหลายโดเมน เมื่อตรวจพบกิจกรรมที่น่าสงสัยของอุปกรณ์ปลายทาง ตัวแทนความสัมพันธ์จะตรวจสอบรูปแบบการรับส่งข้อมูลเครือข่าย บันทึกการเข้าถึงคลาวด์ และการตรวจสอบตัวตนโดยอัตโนมัติ เพื่อสร้างรายงานการโจมตีที่สมบูรณ์ การวิเคราะห์ที่ครอบคลุมนี้เผยให้เห็นการโจมตีที่ซับซ้อน ซึ่งเครื่องมือรักษาความปลอดภัยแบบแยกส่วนอาจมองข้ามไป
การตอบสนองต่อเหตุการณ์อัตโนมัติช่วยให้สามารถดำเนินการควบคุมได้ทันที ซึ่งช่วยป้องกันการโจมตีแบบขยายวงกว้าง เมื่อตรวจพบการบุกรุกข้อมูลประจำตัว ระบบตัวแทนสามารถระงับบัญชีที่ได้รับผลกระทบ แยกจุดเชื่อมต่อที่เกี่ยวข้อง ยกเลิกเซสชันที่ใช้งานอยู่ และเริ่มต้นการรีเซ็ตรหัสผ่านได้โดยอัตโนมัติภายในไม่กี่นาทีหลังจากตรวจพบ การตอบสนองที่รวดเร็วเหล่านี้ช่วยลดระยะเวลาที่ผู้โจมตีต้องอยู่นิ่งและจำกัดความเสียหายที่อาจเกิดขึ้นได้อย่างมาก
ข้อได้เปรียบเชิงกลยุทธ์ของแนวทาง AI แบบบูรณาการ
การนำระบบรักษาความปลอดภัยทางไซเบอร์ที่มีประสิทธิภาพสูงสุดมาใช้งานนั้น จะต้องผสานรวมกระบวนทัศน์ AI ทั้งสองแบบเข้าด้วยกัน เพื่อสร้างกลยุทธ์การป้องกันที่ครอบคลุม ซึ่งสร้างสมดุลระหว่างความเชี่ยวชาญของมนุษย์กับการตอบสนองที่รวดเร็วเทียบเท่าเครื่องจักร องค์กรที่ใช้เครื่องมือ AI แบบแยกส่วนจะพลาดโอกาสในการสร้างผลลัพธ์เชิงเสริมฤทธิ์ที่เพิ่มพูนขีดความสามารถในการป้องกัน
Multi-Layer AI™ ของ Stellar Cyber แสดงให้เห็นถึงแนวทางแบบบูรณาการนี้ด้วยการผสมผสานความสามารถของ Copilot AI แบบสร้างกำเนิดเข้ากับการปฏิบัติงานอัตโนมัติของ AI แบบมีตัวแทน นักวิเคราะห์ความปลอดภัยได้รับประโยชน์จากอินเทอร์เฟซภาษาธรรมชาติสำหรับการตรวจสอบที่ซับซ้อน ขณะที่ตัวแทนอิสระจะจัดการการคัดกรอง ความสัมพันธ์ และการตอบสนองตามปกติ การแบ่งงานกันทำนี้ช่วยให้ผู้เชี่ยวชาญที่เป็นมนุษย์สามารถมุ่งเน้นไปที่การปรับปรุงความปลอดภัยเชิงกลยุทธ์ พร้อมกับรับประกันการตอบสนองต่อภัยคุกคามทันทีอย่างรวดเร็ว
ข้อได้เปรียบเชิงกลยุทธ์ปรากฏชัดในสภาพแวดล้อมที่มีทรัพยากรจำกัด ซึ่งองค์กรขนาดกลางจำเป็นต้องรักษาความปลอดภัยระดับองค์กรด้วยบุคลากรจำนวนจำกัด ปัญญาประดิษฐ์เชิงสร้างสรรค์ (Genative AI) ขยายขีดความสามารถของเจ้าหน้าที่รักษาความปลอดภัยที่มีอยู่ด้วยการวิเคราะห์ขั้นสูงและการสนับสนุนด้านเอกสาร ปัญญาประดิษฐ์เชิงตัวแทน (Agentic AI) มอบความสามารถในการตอบสนองอัตโนมัติที่ช่วยให้สามารถปฏิบัติการรักษาความปลอดภัยได้ตลอด 24 ชั่วโมงทุกวัน โดยไม่ต้องเพิ่มทรัพยากรบุคคล
การจัดการกับความท้าทายด้านความปลอดภัยทางไซเบอร์ในปัจจุบัน
ผู้ก่อภัยคุกคามยุคใหม่ใช้เทคนิคที่เสริมประสิทธิภาพด้วย AI ซึ่งจำเป็นต้องมีระบบป้องกันที่ขับเคลื่อนด้วย AI ที่สอดคล้องกัน การโจมตีฟิชชิ่งที่ขับเคลื่อนด้วย AI ที่เพิ่มขึ้น 703% แสดงให้เห็นว่าฝ่ายตรงข้ามใช้ประโยชน์จากการเรียนรู้ของเครื่องเพื่อวิศวกรรมสังคมและการเก็บเกี่ยวข้อมูลประจำตัว การฝึกอบรมความตระหนักด้านความปลอดภัยแบบดั้งเดิมพิสูจน์แล้วว่าไม่มีประสิทธิภาพในการป้องกันการโจมตีที่สร้างโดย AI ซึ่งมีไวยากรณ์ที่สมบูรณ์แบบและเทคนิควิศวกรรมสังคมที่น่าสนใจ
Generative AI รับมือกับความท้าทายนี้ผ่านโปรแกรมสร้างความตระหนักรู้ด้านความปลอดภัยแบบไดนามิกที่สร้างสถานการณ์จำลองการฝึกอบรมที่สมจริงโดยอิงตามรูปแบบการโจมตีในปัจจุบัน แทนที่จะใช้สื่อการฝึกอบรมแบบคงที่ การจำลองที่สร้างโดย AI จะปรับให้เข้ากับภัยคุกคามที่เกิดขึ้นใหม่และช่องโหว่ขององค์กร ช่วยให้สามารถเตรียมความพร้อมสำหรับสถานการณ์การโจมตีจริงได้อย่างเหมาะสม
Agentic AI ตอบโต้การโจมตีที่เสริมประสิทธิภาพด้วย AI ผ่านการวิเคราะห์พฤติกรรมอัตโนมัติที่สามารถระบุตัวบ่งชี้ที่บ่งบอกถึงการโจมตีเทียมได้อย่างละเอียดอ่อน ระบบเหล่านี้จะจดจำรูปแบบต่างๆ ในด้านจังหวะเวลาการสื่อสาร การเปลี่ยนแปลงของเนื้อหา และการเลือกเป้าหมาย ซึ่งจะเผยให้เห็นแคมเปญการโจมตีอัตโนมัติ ช่วยให้สามารถตอบโต้ได้อย่างรวดเร็วก่อนที่การโจมตีจะบรรลุวัตถุประสงค์
การผสานรวมกรอบการทำงานที่ครอบคลุมของ MITRE ATT&CK เข้ากับแนวทาง AI ทั้งสองแบบ ช่วยให้มั่นใจได้ถึงการป้องกันที่ครอบคลุม Generative AI ช่วยให้ทีมรักษาความปลอดภัยเข้าใจและบันทึกเทคนิคการโจมตี ในขณะที่ AI แบบ agentic จะนำการตรวจจับและการตอบสนองอัตโนมัติที่เชื่อมโยงกับรูปแบบการโจมตีเฉพาะมาใช้ แนวทางที่อิงตามกรอบการทำงานนี้ช่วยให้สามารถปรับปรุงความปลอดภัยอย่างเป็นระบบและวิเคราะห์ช่องว่างได้
การสร้างศูนย์ปฏิบัติการความปลอดภัยที่ขับเคลื่อนด้วย AI
วิวัฒนาการไปสู่ระบบที่ขับเคลื่อนด้วย AI SOC ความสามารถดังกล่าวจำเป็นต้องมีการวางแผนสถาปัตยกรรมอย่างรอบคอบ ซึ่งต้องบูรณาการทั้งสองแนวคิดของ AI เข้ากับโครงสร้างพื้นฐานด้านความปลอดภัยที่มีอยู่เดิม องค์กรต้องสร้างสมดุลระหว่างประโยชน์ของการทำงานอัตโนมัติกับการควบคุมการดำเนินงาน เพื่อให้มั่นใจว่าระบบ AI จะช่วยเสริมความเชี่ยวชาญด้านความปลอดภัยของมนุษย์ แทนที่จะเข้ามาแทนที่
หลักการสถาปัตยกรรม Zero Trust ของ NIST SP 800-207 มอบแนวทางสำคัญสำหรับการผสานรวม AI เข้ากับการปฏิบัติงานด้านความปลอดภัยสมัยใหม่ แนวทาง "ไม่ไว้วางใจ ต้องตรวจสอบเสมอ" จำเป็นต้องอาศัยการตรวจสอบความถูกต้องอย่างต่อเนื่อง ซึ่งทั้งระบบ AI เชิงสร้างสรรค์และเชิงตัวแทนรองรับผ่านการวิเคราะห์แบบเรียลไทม์และการบังคับใช้นโยบายอัตโนมัติ การนำ Zero Trust ไปใช้ในทางปฏิบัติจะมีประสิทธิภาพมากขึ้นด้วยระบบ AI ที่สามารถประเมินความเสี่ยงแบบไดนามิกและปรับการควบคุมการเข้าถึงตามข้อมูลภัยคุกคามและรูปแบบพฤติกรรมปัจจุบัน
แนวทางสถาปัตยกรรมต้องตอบโจทย์ความต้องการเฉพาะขององค์กรขนาดกลางที่ดำเนินงานด้วยทีมรักษาความปลอดภัยแบบลีน องค์กรเหล่านี้ไม่สามารถจ้างผู้เชี่ยวชาญด้าน AI เฉพาะทางหรือโครงการบูรณาการที่ซับซ้อนซึ่งส่งผลกระทบต่อการดำเนินงานที่มีอยู่ได้ การนำระบบไปใช้งานอย่างประสบความสำเร็จจะมอบคุณค่าด้านความปลอดภัยทันที พร้อมทั้งสร้างรากฐานสำหรับการขยายขีดความสามารถด้าน AI ในอนาคต
แผนงานการดำเนินงานและแนวทางปฏิบัติที่ดีที่สุด
องค์กรต่างๆ ควรเริ่มต้นด้วยการนำ AI เชิงสร้างสรรค์มาใช้งาน ซึ่งจะช่วยเสริมศักยภาพของนักวิเคราะห์ที่มีอยู่เดิมโดยไม่ต้องเปลี่ยนแปลงโครงสร้างพื้นฐาน อินเทอร์เฟซภาษาธรรมชาติสำหรับการวิเคราะห์ข้อมูลด้านความปลอดภัยและการบันทึกเหตุการณ์อัตโนมัติ มอบคุณค่าทันที พร้อมสร้างความสะดวกสบายให้กับองค์กรด้วยการดำเนินงานที่ช่วยเหลือด้วย AI
การปรับใช้เอเจนต์ AI จำเป็นต้องมีการวางแผนอย่างรอบคอบมากขึ้นเนื่องจากความสามารถในการตัดสินใจแบบอัตโนมัติ องค์กรต่างๆ ควรเริ่มต้นด้วยสถานการณ์การทำงานอัตโนมัติที่มีความเสี่ยงต่ำ เช่น การเพิ่มการแจ้งเตือนและการคัดกรองขั้นพื้นฐาน ก่อนที่จะพัฒนาไปสู่ความสามารถในการตอบสนองแบบอัตโนมัติ การพัฒนาและการทดสอบนโยบายที่ครอบคลุมช่วยให้มั่นใจได้ว่าเอเจนต์ AI จะทำงานภายใต้พารามิเตอร์ความเสี่ยงที่ยอมรับได้
การบูรณาการต้องคำนึงถึงข้อกำหนดด้านกฎระเบียบและการปฏิบัติตามกฎระเบียบที่ควบคุมการดำเนินงานด้านความปลอดภัยในอุตสาหกรรมต่างๆ องค์กรด้านการดูแลสุขภาพต้องปฏิบัติตามข้อกำหนด HIPAA ขณะที่สถาบันการเงินต้องปฏิบัติตามมาตรฐานการตรวจสอบและเอกสารเฉพาะ การนำ AI มาใช้ต้องรองรับกิจกรรมการปฏิบัติตามกฎระเบียบมากกว่าการทำให้ซับซ้อน ผ่านความสามารถในการบันทึกและบันทึกการตรวจสอบอย่างละเอียด
ผลกระทบในอนาคตและการพิจารณาเชิงกลยุทธ์
เส้นทางสู่การปฏิบัติการรักษาความปลอดภัยแบบอัตโนมัติยังคงก้าวหน้าอย่างต่อเนื่อง ผ่านการพัฒนาความสามารถในการใช้เหตุผลของ AI ความเข้าใจบริบท และความซับซ้อนของการตอบสนองอัตโนมัติ องค์กรต่างๆ ที่จัดทำโปรแกรม AI ที่ครอบคลุมในปัจจุบันกำลังเตรียมพร้อมสำหรับความสำเร็จ เนื่องจากภัยคุกคามยังคงพัฒนาอย่างต่อเนื่อง และรูปแบบการตอบสนองโดยอาศัยมนุษย์กลับไม่เพียงพอมากขึ้นเรื่อยๆ
ระบบ AI แบบเอเจนต์จะรับมือกับการตรวจสอบที่ซับซ้อนมากขึ้น ซึ่งปัจจุบันต้องอาศัยความเชี่ยวชาญของมนุษย์ ขณะที่ความสามารถของ AI แบบเจเนอเรทีฟจะช่วยให้การโต้ตอบกับนักวิเคราะห์มีความซับซ้อนมากขึ้นและสร้างรายงานอัตโนมัติ การผสานรวมโมเดลภาษาขนาดใหญ่เข้ากับเอเจนต์อัตโนมัติจะสร้างโอกาสสำหรับการดำเนินงานด้านความปลอดภัยแบบสนทนา ซึ่งนักวิเคราะห์มนุษย์สามารถสั่งการเอเจนต์ AI โดยใช้คำสั่งภาษาธรรมชาติได้
อย่างไรก็ตาม องค์ประกอบของมนุษย์ยังคงมีความสำคัญอย่างยิ่งต่อการตัดสินใจเชิงกลยุทธ์ด้านความปลอดภัย การพัฒนานโยบาย และการวิเคราะห์ภัยคุกคามที่ซับซ้อน ซึ่งจำเป็นต้องมีบริบทขององค์กรและความเข้าใจทางธุรกิจ อนาคตขึ้นอยู่กับการปฏิบัติการรักษาความปลอดภัยอัตโนมัติที่เสริมด้วยมนุษย์ ซึ่งปัญญาประดิษฐ์ (AI) จะจัดการการปฏิบัติการเชิงกลยุทธ์ ขณะที่มนุษย์เป็นผู้กำหนดทิศทางและกำกับดูแลเชิงกลยุทธ์
ความได้เปรียบในการแข่งขันจะตกอยู่กับองค์กรที่ผสานรวมกระบวนทัศน์ AI ทั้งสองแบบเข้ากับสถาปัตยกรรมความปลอดภัยที่ครอบคลุมได้สำเร็จ บริษัทขนาดกลางที่ผสานรวมกระบวนทัศน์นี้สำเร็จจะสามารถป้องกันภัยคุกคามระดับองค์กรได้ ขณะเดียวกันก็รักษาประสิทธิภาพการดำเนินงานและการควบคุมต้นทุน ซึ่งคู่แข่งรายใหญ่ยังทำได้ยาก
องค์กรต่างๆ ต้องดำเนินการอย่างเด็ดขาดในการนำเทคโนโลยีเหล่านี้มาใช้ ก่อนที่ผู้ก่อภัยคุกคามจะได้รับประโยชน์มหาศาลจากการนำ AI มาใช้เอง โอกาสสำหรับการนำ AI มาใช้เชิงป้องกันกำลังแคบลง เนื่องจากผู้โจมตีเริ่มนำเทคนิคที่เสริมประสิทธิภาพด้วย AI มาใช้มากขึ้น ซึ่งเหนือกว่าวิธีการรักษาความปลอดภัยแบบเดิม คำถามไม่ใช่ว่าควรนำระบบรักษาความปลอดภัยที่ขับเคลื่อนด้วย AI มาใช้หรือไม่ แต่เป็นว่าองค์กรต่างๆ จะสามารถพัฒนาความสามารถด้าน AI ที่ครอบคลุมและสอดคล้องกับสภาพแวดล้อมภัยคุกคามที่เปลี่ยนแปลงไปได้อย่างรวดเร็วเพียงใด
การบรรจบกันของความปลอดภัยทางไซเบอร์ของ AI ตัวแทน ความปลอดภัยทางไซเบอร์ของ AI เชิงสร้างสรรค์ และ AI ที่ขับเคลื่อนด้วยข้อมูล SOC ความสามารถเหล่านี้แสดงถึงวิวัฒนาการขั้นต่อไปของการป้องกันองค์กร องค์กรที่เชี่ยวชาญด้านการบูรณาการนี้จะบรรลุเป้าหมายในการปฏิบัติการรักษาความปลอดภัยอัจฉริยะแบบอัตโนมัติ ซึ่งจำเป็นต่อการป้องกันภัยคุกคามที่ได้รับการพัฒนาด้วย AI ในอนาคต