#การ์ทเนอร์ คาดการณ์อีก 5 ปีข้างหน้าสัดส่วนของ #GuardianAgents จะครอบคลุมประมาณ 10-15% ของตลาด #AgenticAI - CyberAInews ข่าวธุรกิจ888

CyberAInews ข่าวธุรกิจ888

ข่าวเด่น ดารา บันเทิง ข่าวธุรกิจ เศรษฐกิจ สังคม เทคโนโลยีAi ข่าวธุรกิจ888 cyberainews by chokweekly chokcyberai

Post Top Ad

กดติดตามได้ทาง https://www.ข่าวธุรกิจ888.cyberaitea.com

20 มิถุนายน 2568

#การ์ทเนอร์ คาดการณ์อีก 5 ปีข้างหน้าสัดส่วนของ #GuardianAgents จะครอบคลุมประมาณ 10-15% ของตลาด #AgenticAI

 #การ์ทเนอร์ คาดการณ์อีก 5 ปีข้างหน้าสัดส่วนของ #GuardianAgents จะครอบคลุมประมาณ 10-15% ของตลาด #AgenticAI

Guardian Agents จะทำให้กระบวนการทำงานของ AI น่าเชื่อถือและปลอดภัยในสภาวะที่การใช้ AI มีความเสี่ยงเพิ่มขึ้น

ประเทศไทย, กรุงเทพฯ, 20 มิถุนายน 2568 - การ์ทเนอร์คาดการณ์ว่าภายในอีก 5 ปี นับจากนี้ (พ.ศ. 2573)  เทคโนโลยีความปลอดภัย “Guardian Agent” จะมีสัดส่วนในตลาด Agentic AI อย่างน้อย 10-15%

Guardian Agents คือเทคโนโลยีต่าง ๆ ที่ใช้ AI เป็นพื้นฐานการทำงาน ออกแบบมาเพื่อสนับสนุนและทำงานร่วมกับ AI เพื่อสร้างความน่าเชื่อถือและความปลอดภัย โดยทำหน้าที่เป็นทั้งผู้ช่วย AI ที่คอยสนับสนุนผู้ใช้ในงานต่าง ๆ อาทิ การตรวจสอบเนื้อหา การติดตามและการวิเคราะห์ โดยเป็นตัวแทนหรือ Agents ที่สามารถทำงานได้แบบกึ่งอัตโนมัติหรือแบบอัตโนมัติเต็มรูปแบบ มีความสามารถในการจัดทำและดำเนินแผนการปฏิบัติงาน รวมถึงปรับเปลี่ยนเส้นทางหรือป้องกันการกระทำที่เป็นอันตราย สอดรับตามเป้าหมายที่กำหนดไว้ล่วงหน้า



เมื่อการใช้งาน Agentic AI เติบโตต่อเนื่อง จำเป็นต้องมีระบบความปลอดภัยหรือ Guardrails 

จากผลสำรวจของการ์ทเนอร์ในเว็บบินาร์ เมื่อ 19 พฤษภาคม 2568 ผ่านมุมมองของผู้บริหาร CIO และหัวหน้าฝ่าย IT จำนวน 147 ราย พบว่า 24% ของผู้ตอบแบบสอบถามได้นำ AI Agents มาปรับใช้เพียงไม่กี่ตัว (น้อยกว่า 12 ตัว) ขณะที่มีเพียง 4% ที่นำ AI Agents มาใช้มากกว่า 12 ตัว

ผลจากแบบสำรวจเดียวกันนี้ยังพบว่า 50% ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขากำลังหาข้อมูลและทดลองใช้เทคโนโลยีชนิดนี้ ในขณะที่อีก 17% บอกว่ายังไม่ได้เริ่มทำ แต่อยู่ในขั้นวางแผนนำเทคโนโลยีนี้มาปรับใช้ในช่วงสิ้นปี 2569 เป็นอย่างช้า การควบคุมความน่าเชื่อถือ ความเสี่ยง และความปลอดภัยแบบอัตโนมัติจำเป็นต้องทำให้ตัวแทนเหล่านี้มีความสอดคล้องและปลอดภัย ซึ่งเป็นการเร่งการเติบโตและความต้องการของ Guardian Agents ยิ่งขึ้น 

Avivah Litan รองประธาน นักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า "หากไม่ได้ควบคุมและป้องกันด้วยระบบความปลอดภัยหรือ Guardrails อย่างเหมาะสมแล้ว Agentic AI จะพาองค์กรไปสู่ผลลัพธ์ที่ไม่พึงประสงค์โดย Guardian Agents จะอาศัยความสามารถที่หลากหลายของ Agentic AI และเทคโนโลยีที่ขับเคลื่อนด้วย AI มาประเมินแบบกำหนดที่ใช้ AI เป็นพื้นฐาน เพื่อใช้ดูแลและจัดการความสามารถทั้งหมดของ Agent โดยสร้างสมดุลระหว่างการตัดสินใจขณะทำงานร่วมกับการจัดการความเสี่ยง"

 

ความเสี่ยงเพิ่มขึ้นตามพลัง Agent ที่เพิ่มขึ้นและแพร่หลายมากขึ้น

52% จากผู้ตอบแบบสอบถามอีกส่วนหนึ่งจำนวน 125 รายจากเว็บบินาร์เดียวกัน ยังระบุว่าระบบ AI Agents ของพวกเขามีหรือมุ่งเน้นไปที่ยูสเคสการใช้งานที่เกี่ยวข้องกับฟังก์ชันการบริหารภายในองค์กรเป็นหลัก อาทิ ด้าน IT, ฝ่ายบุคคลและบัญชี ขณะที่ 23% บอกว่าเน้นไปที่ฟังก์ชันที่เกี่ยวข้องกับการใช้งานของลูกค้าภายนอก

ในขณะที่ยูสเคส AI Agents มีการเติบโตต่อเนื่อง ก็ยังเกิดภัยคุกคามหลายประเภทที่ส่งผลกระทบต่อการทำงานของตัว AI ตั้งแต่การจัดการข้อมูลขาเข้าและข้อมูลที่เป็นภัย ตามที่ระบบพึ่งพาชุดข้อมูลหลอกลวงหรือถูกตีความผิด ๆ ตัวอย่างเช่น:

  • การแฮ็กและการละเมิดข้อมูลประจำตัว ซึ่งนำไปสู่การควบคุมที่ไม่ได้รับอนุญาตและการขโมยข้อมูล
  • AI Agents ที่โต้ตอบกับเว็บไซต์และแหล่งข้อมูลปลอมหรือผิดกฎหมาย อาจส่งผลให้เกิดการดำเนินการที่เป็นอันตราย
  • การเบี่ยงเบนของ AI Agents และพฤติกรรมที่ไม่ได้ตั้งใจอันเนื่องมาจากข้อบกพร่องภายในหรือปัจจัยกระตุ้นภายนอก อาจทำให้ชื่อเสียงองค์กรเสียหายและการดำเนินงานหยุดชะงัก

"การเร่งตัวและการเพิ่มขึ้นอย่างรวดเร็วของตัวแทนด้าน AI ทำให้จำเป็นต้องมีการปรับเปลี่ยนจากเดิมที่ให้มนุษย์เป็นผู้ดูแล ซึ่งเมื่อองค์กรเดินหน้าไปสู่ระบบ Multi-Agent ที่ซับซ้อน มีการสื่อสารกันด้วยความเร็วสูง มนุษย์ไม่สามารถไล่ตามข้อผิดพลาดและกิจกรรมที่เป็นอันตรายได้ทัน บวกกับภูมิทัศน์ภัยคุกคามที่ขยายเพิ่มขึ้นนี้ องค์กรมีความจำเป็นอย่างเร่งด่วนสำหรับการนำระบบ Guardian Agents ที่สามารถช่วยดูแล ควบคุม และเพิ่มความปลอดภัยอัตโนมัติในแอปพลิเคชัน AI และ Agent อื่น ๆ" Litan กล่าวเพิ่มเติม

ผู้บริหาร CIO และผู้นำด้านความปลอดภัย รวมถึงผู้นำด้าน AI ควรเน้นใช้งาน Guardian Agents ในบทบาท 3 ประเภทหลัก เพื่อช่วยรักษาความปลอดภัยและปกป้องการโต้ตอบร่วมกับ AI:

  • Reviewers: ระบุและตรวจสอบผลลัพธ์และเนื้อหาที่ AI สร้างขึ้นเพื่อความถูกต้องและการใช้งานที่ยอมรับได้
  • Monitors: สังเกตและติดตามการกระทำของ AI รวมถึงการดำเนินงานอัตโนมัติ (Agentic) สำหรับให้มนุษย์หรือการติดตาม AI
  • Protectors: ปรับหรือป้องกันการกระทำและสิทธิ์ของ AI และ Agent โดยใช้การกระทำอัตโนมัติระหว่างการดำเนินงาน

Guardian agents จะช่วยจัดการการโต้ตอบและค้นหาความผิดปกติไม่ว่าจะเป็นการใช้งานประเภทใดก็ตาม เป็นกุญแจดอกสำคัญของการรวมประสิทธิภาพความปลอดภัยทั้งหมดเข้าไว้ด้วยกัน ดังที่การ์ทเนอร์คาดการณ์ว่า 70% ของแอป AI จะใช้ระบบ Multi-Agent ในปี 2571

เกี่ยวกับการ์ทเนอร์ 

บริษัท การ์ทเนอร์ (Gartner, Inc.) (NYSE: IT) คือบริษัทวิจัยและให้คำปรึกษาชั้นนำของโลก มอบข้อมูลเชิงลึก คำแนะนำ และเครื่องมือต่าง ๆ แก่ผู้บริหารองค์กรธุรกิจ เพื่อรองรับการดำเนินภารกิจสำคัญที่มีอยู่ในปัจจุบันและสร้างองค์กรให้ประสบความสำเร็จในอนาคต ดูข้อมูลเพิ่มเติมเกี่ยวกับแนวทางของการ์ทเนอร์ในการช่วยให้ผู้บริหารตัดสินใจอย่างถูกต้องเพื่อขับเคลื่อนอนาคตของธุรกิจได้ที่ gartner.com

 

 

Gartner Predicts that Guardian Agents will Capture 10-15% of the Agentic AI Market by 2030

Guardian Agents Will Ensure AI Processes Stay Reliable and Secure as AI Risk Surface Expands

THAILAND, Bangkok, June 20, 2025 - By 2030, guardian agent technologies will account for at least 10 to 15% of agentic AI markets, according to Gartner, Inc.

Guardian agents are AI-based technologies designed to support trustworthy and secure interactions with AI. They function as both AI assistants, supporting users with tasks like content review, monitoring and analysis, and as evolving semi-autonomous or fully autonomous agents, capable of formulating and executing action plans as well as redirecting or blocking actions to align with predefined agent goals.

Guardrails Are Needed as Agentic AI Usage Continues to Grow

According to a Gartner May 19, 2025 webinar poll of 147 CIOs and IT function leaders, 24% of respondents had already deployed a few AI agents (less than a dozen) and another 4% had deployed over a dozen. 

The same poll question found that 50% of respondents said they were researching and experimenting with the technology, while another 17% of respondents said that they had not done so, but planned to deploy the technology by the end of 2026 at the latest. Automated trust, risk and security controls are needed to keep these agents aligned and safe, accelerating the need for and rise of Guardian Agents.

“Agentic AI will lead to unwanted outcomes if it is not controlled with the right guardrails,”

said Avivah Litan, VP Distinguished Analyst at Gartner. “Guardian agents leverage a broad spectrum of agentic AI capabilities and AI-based, deterministic evaluations to oversee and manage the full range of agent capabilities, balancing runtime decision making with risk management.”

Risks Increase as Agent Power Increases and Spreads

Fifty-two percent of 125 respondents from the same webinar poll identified that their AI agents are or will primarily focus on use cases related to internal administration functions such as IT, HR, and accounting, while 23% are focused on external customer facing functions.

As use cases for AI agents continue to grow, there are several threat categories impacting them, including input manipulation and data poisoning, where agents rely on manipulated or misinterpreted data. Examples include:

  • Credential hijacking and abuse leading to unauthorized control and data theft.
  • Agents interacting with fake or criminal websites and sources that can result in poisoned actions. 
  • Agent deviation and unintended behavior due to internal flaws or external triggers that can cause reputational damage and operational disruption. 

“The rapid acceleration and increasing agency of AI agents necessitates a shift beyond traditional human oversight,” said Litan. “As enterprises move towards complex multi-agent systems that communicate at breakneck speed, humans cannot keep up with the potential for errors and malicious activities. This escalating threat landscape underscores the urgent need for guardian agents, which provide automated oversight, control, and security for AI applications and agents.”

CIOs and security and AI leaders should focus on three primary usage types of guardian agents to contribute towards safeguarding and protecting AI interactions:

  • Reviewers: Identifying and reviewing AI-generated output and content for accuracy and acceptable use.
  • Monitors: Observing and tracking AI and agentic actions for human- or AI-based follow-up
  • Protectors: Adjusting or blocking AI and agentic actions and permissions using automated actions during operations. 

Guardian agents will manage interactions and anomalies no matter the usage type. This is a key pillar of their integration, since Gartner predicts that 70% of AI apps will use multi-agent systems by 2028.

About Gartner

Gartner, Inc. (NYSE: IT) delivers actionable, objective insight that drives smarter decisions and stronger performance on an organization’s mission-critical priorities. To learn more, visit gartner.com.

ไม่มีความคิดเห็น:

แสดงความคิดเห็น

Ad