Datadog เผยรายงาน State of AI Engineering 2026 ชี้องค์กรไทยใช้ AI โตไวแต่ขาดความพร้อมระบบปฏิบัติการ เผย 5% ของคำสั่งล้มเหลวเหตุคอขวดด้านกำลังรองรับระบบ
อุปสรรคของการนำ AI ไปใช้งานจริงอาจไม่ใช่เรื่องความฉลาดของโมเดลอย่างที่หลายคนเข้าใจ รายงานล่าสุดจาก Datadog (NASDAQ: DDOG) แพลตฟอร์มชั้นนำด้าน Observability และ Security เผยให้เห็นว่า เมื่อกระแสการใช้ AI เติบโตอย่างก้าวกระโดด ‘ความซับซ้อนในการบริหารจัดการระบบ’ กลายเป็นความท้าทายหลักที่ฉุดรั้งไม่ให้องค์กรสามารถขยายสเกลการใช้งาน AI ได้อย่างราบรื่นและมีเสถียรภาพ
โดยเฉพาะในภูมิภาคอาเซียน แม้ประเทศไทยจะเร่งเดินหน้าประยุกต์ใช้ AI อย่างรวดเร็วเทียบเคียงกับมาเลเซียและอินโดนีเซีย แต่เรายังคงเห็นช่องว่างสำคัญในเรื่อง ‘ความพร้อมด้านการทำงาน’ เมื่อเทียบกับตลาดที่มีความตื่นตัวสูงกว่าอย่างสิงคโปร์
รายงาน ‘State of AI Engineering 2026’ จาก Datadog ซึ่งวิเคราะห์ข้อมูลจากองค์กรนับพันแห่งที่ใช้งาน AI ในระบบการทำงานจริง ตอกย้ำให้เห็นถึงปัญหาความซับซ้อนที่ทวีคูณขึ้นเมื่อองค์กรพยายามขยายสเกลระบบ ปัจจุบัน 69% ของบริษัทต่างๆ มีการใช้งานโมเดล AI ตั้งแต่ 3 โมเดลขึ้นไป ควบคู่ไปกับระบบการทำงานของเอเจนต์ (Agent Workflows) ที่มีความซับซ้อนสูงขึ้น
สิ่งที่น่ากังวลคือ ราว 5% ของคำสั่งประมวลผลที่ส่งไปยัง AI เกิดความล้มเหลวบนสภาพแวดล้อมการใช้งานจริง โดยกว่า 60% ของข้อผิดพลาดดังกล่าวมีสาเหตุมาจาก ‘ข้อจำกัดด้านกำลังรองรับของระบบ’ ซึ่งส่งผลกระทบโดยตรงทำให้แอปพลิเคชัน AI ทำงานล่าช้า เกิดข้อผิดพลาดในระบบ และลดทอนประสบการณ์การใช้งานของผู้ใช้
นอกจากนี้ รายงานยังชี้ให้เห็นถึงเทรนด์ที่น่าจับตามองในวงการ AI อีกหลายประเด็น:
-
การก้าวเข้าสู่ยุค Multi-model อย่างเต็มตัว: องค์กรต่าง ๆ เริ่มลดการพึ่งพาโมเดลใดโมเดลหนึ่งเพียงอย่างเดียว แม้ว่า OpenAI จะยังคงครองสัดส่วนผู้ใช้งานสูงสุดที่ 63% แต่ทางเลือกที่กำลังมาแรงอย่าง Google Gemini และ Anthropic Claude ก็เติบโตขึ้นอย่างน่าจับตามอง ด้วยสัดส่วนการใช้งานที่พุ่งสูงขึ้น 20% และ 23% ตามลำดับ
-
การใช้ Agent Framework เติบโตขึ้นถึงเท่าตัวในรอบปี: แม้เครื่องมือกลุ่ม Agent Framework จะช่วยเร่งความเร็วในการพัฒนาแอปพลิเคชันได้ดีเยี่ยม แต่ในขณะเดียวกันก็เพิ่มความซับซ้อน (Moving Parts) ให้กับโปรดักชันด้วยเช่นกัน
-
ปริมาณข้อมูลที่ป้อนให้ AI ประมวลผลต่อครั้งพุ่งสูงขึ้น: ขนาดของข้อมูลที่ส่งให้โมเดล AI ประมวลผลต่อหนึ่งคำสั่งมีแนวโน้มขยายตัวอย่างชัดเจนจำนวนโทเค็นเฉลี่ยต่อหนึ่งคำขอเพิ่มขึ้นมากกว่าเท่าตัวในกลุ่มทีมที่มีการใช้งานระดับกลาง และเพิ่มขึ้น 4 เท่าสำหรับกลุ่มผู้ใช้งานหนัก
“ภาพรวมของเทคโนโลยี AI ในขณะนี้มีความคล้ายคลึงกับยุคเริ่มต้นของคลาวด์ (Cloud) เป็นอย่างมาก” คุณ Yanbing Li ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ของ Datadog กล่าวเปรียบเทียบสถานการณ์ปัจจุบันไว้อย่างน่าสนใจ “คลาวด์ทำให้ระบบต่าง ๆ สามารถควบคุมและปรับแต่งผ่านซอฟต์แวร์ได้มากขึ้น แต่ก็ทำให้การบริหารจัดการซับซ้อนขึ้นอย่างมาก ซึ่งปัจจุบัน AI ก็กำลังสร้างผลกระทบในลักษณะเดียวกันในระดับแอปพลิเคชัน”
เธอยังได้เน้นย้ำประเด็นสำคัญว่า “ในสมรภูมินี้ องค์กรที่จะก้าวขึ้นเป็นผู้นำตลาดจะไม่ใช่แค่ผู้ที่สร้างโมเดลได้เก่งกว่า แต่เป็นองค์กรที่สร้างการควบคุมการทำงานรอบโมเดลเหล่านั้นได้ และในยุคนี้ AI Observability จะมีความจำเป็นเช่นเดียวกับ Cloud Observability เมื่อหนึ่งทศวรรษก่อน”
ก้าวให้ไว แต่ต้องคุมระบบให้อยู่
แรงกดดันจากการแข่งขันในตลาดกำลังเร่งให้ทั้งสตาร์ทอัพและองค์กรระดับเอนเตอร์ไพรส์นำ AI มาประยุกต์ใช้ในวงกว้าง ทว่าเมื่อถึงคราวที่ต้องขยายสเกลระบบ ‘ความเร็วที่ปราศจากการควบคุม’ กลับกลายเป็นความเสี่ยงสำคัญ ปัจจุบันเราจึงพบเห็นความล้มเหลวอันเกิดจากรากฐานการออกแบบระบบที่
เพิ่มสูงขึ้นอย่างต่อเนื่อง ซึ่งครอบคลุมตั้งแต่ปัญหาเวิร์กโฟลว์ที่กระจัดกระจาย การลองเรียกใช้งานซ้ำมากเกินไป และการกำหนดเส้นทางการทำงานที่ไม่มีประสิทธิภาพ
“ความล้มเหลวระลอกถัดไปของระบบเอเจนต์ (Agent) จะไม่ได้มาจากข้อจำกัดว่ามันทำอะไรไม่ได้ แต่จะมาจากข้อผิดพลาดที่ทีมพัฒนา ‘มองไม่เห็น’” นี่คือมุมมองที่น่าสนใจจากคุณ Guillermo Rauch ประธานเจ้าหน้าที่บริหารบริษัท Vercel ผู้อยู่เบื้องหลัง Next.js และแพลตฟอร์มชั้นนำสำหรับการพัฒนาเว็บแอปพลิเคชันที่ขับเคลื่อนด้วย AI
คุณ Rauch อธิบายเจาะลึกถึงประเด็นนี้ว่า “ที่ Vercel เรามุ่งพัฒนาโครงสร้างพื้นฐานสำหรับเอเจนต์ (Agentic Infrastructure) โดยเฉพาะ เพราะเอเจนต์เองก็จำเป็นต้องมีการเก็บฟีดแบ็กจากโปรดักชันมาพัฒนาต่อ ไม่ต่างจากซอฟต์แวร์ชั้นนำทั่วไป ข้อแตกต่างสำคัญคือ ซอฟต์แวร์แบบดั้งเดิมจะทำงานตามลำดับคำสั่งที่ตายตัว แต่สำหรับเอเจนต์ มีลำดับและเส้นทางการทำงานที่ถูกกำหนดโดย LLM เอง ทำให้ Observability ไม่ใช่เพียงสิ่งที่มีประโยชน์ แต่เป็นสิ่งจำเป็น”
“นวัตกรรมเพียงอย่างเดียวนั้นไม่เพียงพออีกต่อไป” คุณ Li กล่าวเสริม “หากองค์กรต้องการขยายสเกล AI อย่างมั่นใจการมีระบบที่สามารถมองเห็นสถานะการทำงานแบบเรียลไทม์ได้ครอบคลุมทุกส่วนของโครงสร้างระบบถือเป็นหัวใจสำคัญ ซึ่งต้องสามารถเจาะลึกได้ตั้งแต่ระดับฮาร์ดแวร์อย่าง อัตราการใช้งาน GPU (GPU Utilization) ไปจนถึงระดับซอฟต์แวร์อย่างการติดตามพฤติกรรมของโมเดล และเวิร์กโฟลว์ของเอเจนต์”
เธอย้ำว่า “ความสามารถในการมองเห็นภาพรวมและการควบคุมการปฏิบัติการเหล่านี้ คือกุญแจสำคัญที่ช่วยให้ทีมงานสามารถเดินหน้าพัฒนาได้อย่างรวดเร็ว โดยไม่ลดทอนความน่าเชื่อถือของระบบและยังคงรักษา การกำกับดูแลระบบไว้ได้อย่างรัดกุมเมื่อระบบมีขนาดใหญ่ขึ้น ในท้ายที่สุดแล้ว เมื่อระบบขยายสเกล วิธีที่องค์กรปฏิบัติการและดูแลระบบ AI อาจสำคัญยิ่งกว่าการเลือกโมเดล”
อ่านรายงานฉบับเต็ม The State of AI Engineering 2026 และศึกษาวิธีที่ Datadog ลงทุนใน AI Observability เพื่อช่วยให้ทีมสามารถบริหารจัดการและขยายสเกลระบบ AI ในระดับโปรดักชันได้ที่นี่
อ่าน: 141
Like this:
Like Loading...
Related
Comments
comments