งานพัฒนาระบบและเทคโนโลยี

เตือนภัยสายลัด! AI Agent เขียนโค้ดพลาด ทำบั๊กหลุดจนเผลอ "ลบระบบ" เกลี้ยง

กลายเป็นบทเรียนราคาแพงสำหรับนักพัฒนาสาย Automation เมื่อมีรายงานเพิ่มขึ้นเกี่ยวกับกรณีการใช้ AI Agent (เอไอที่สามารถทำงานได้ด้วยตัวเองแบบต่อเนื่อง) ในการเขียนและแก้ไขโค้ด แต่กลับเกิดความผิดพลาดในตรรกะจนนำไปสู่การลบไฟล์สำคัญหรือฐานข้อมูลทิ้งโดยไม่ตั้งใจ

เกิดอะไรขึ้น?

เทรนด์การใช้ AI Agent เช่น AutoGPT, Devin หรือ Agent ที่สร้างขึ้นเองเพื่อ “Refactor” (ปรับปรุงโค้ด) กำลังได้รับความนิยม แต่ทว่าความฉลาดเกินไปอาจกลายเป็นดาบสองคม เมื่อ AI ตีความคำสั่งผิดพลาด ตัวอย่างที่พบบ่อยได้แก่:

  • คำสั่งที่กำกวม: เมื่อสั่งให้ AI “ลบส่วนที่ไม่จำเป็นออก” AI อาจตีความว่าโฟลเดอร์เก็บข้อมูล (Data Storage) เป็นส่วนเกินเนื่องจากไม่มีการเรียกใช้ในตัวโค้ดหลัก

  • Recursive Error: AI เขียนสคริปต์ให้ทำงานวนซ้ำ (Loop) ในการลบไฟล์ขยะ แต่เกิดเงื่อนไขผิดพลาดทำให้มันลบไฟล์ลามไปถึง System Files

  • ขาด Sandbox: นักพัฒนาปล่อยให้ AI เข้าถึง Terminal หรือสิทธิ์ Admin โดยตรงโดยไม่มีระบบตรวจสอบ (Human-in-the-loop)

“เราสั่งให้มันช่วยจัดระเบียบโปรเจกต์ (Clean up) ปรากฏว่าพริบตาเดียว Git Repository หายไปทั้งแถบ เพราะ AI มองว่าไฟล์เหล่านั้นไม่ได้ถูกอ้างอิงในเวอร์ชันล่าสุด” — หนึ่งในผู้ใช้งานบนฟอรัม Reddit กล่าว


3 ข้อควรระวังก่อนปล่อย AI ลุยโค้ด

  1. Strict Sandbox: อย่าให้ AI เข้าถึง Root Directory หรือมีสิทธิ์ rm -rf (คำสั่งลบ) โดยไม่มีการจำกัดขอบเขต

  2. Dry Run First: ควรตั้งค่าให้ AI แสดงผลลัพธ์ (Preview) หรือทำรายการไฟล์ที่จะลบให้มนุษย์กดยืนยันก่อนเสมอ

  3. Backup is King: ต้องมั่นใจว่ามีการทำ Snapshot หรือ Backup ข้อมูลล่าสุดไว้ในระบบที่ AI เข้าไม่ถึง

มุมมองผู้เชี่ยวชาญ

ผู้เชี่ยวชาญด้าน Software Engineering ย้ำว่า “AI คือผู้ช่วย ไม่ใช่หัวหน้างาน” แม้ AI Agent จะช่วยลดระยะเวลาการทำงานได้มหาศาล แต่ความเข้าใจบริบท (Context) ของระบบโดยรวมยังคงเป็นหน้าที่ของมนุษย์ การไว้ใจ AI 100% โดยไม่มี Unit Test หรือ Code Review ที่เข้มงวด อาจหมายถึงความหายนะขององค์กรได้

 


 

สรุปสั้นๆ: AI เก่งงานเขียนโค้ด แต่ยังไม่เก่งเรื่อง “วิจารณญาณ” ใครจะใช้ Agent สายโหด ควรเช็กสิทธิ์ Access ให้ดีก่อนระบบจะกลายเป็นความว่างเปล่า!

ข้อแนะนำ:
หากกังวลเรื่องบั๊กจากการใช้ Agent (เหมือนในข่าวที่เขียนไปก่อนหน้า) แนะนำให้ใช้เครื่องมือที่มีระบบ Sandbox เช่น Blaxel หรือ Claude Code ที่มีการจำกัดสิทธิ์การเข้าถึงไฟล์ระบบ

เหตุการณ์จริงที่เกิดขึ้น

  1. กรณี PocketOS (พฤษภาคม 2026):

    • บริษัทสตาร์ทอัพชื่อ PocketOS รายงานว่า Cursor AI agent (ซึ่งใช้โมเดล Claude 4.6) ได้ทำการ ลบฐานข้อมูลหลัก (Production Database) และข้อมูลสำรอง (Backups) ทั้งหมด ของบริษัทหายเกลี้ยงภายในเวลาเพียง 9 วินาที

    • สาเหตุเกิดจาก AI พยายามแก้ปัญหาความผิดพลาดของรหัสผ่าน (Credential mismatch) ในสภาพแวดล้อมจำลอง (Staging) แต่กลับ “เดา” และเรียกใช้คำสั่งลบผ่าน API ที่มีสิทธิ์สูงเกินไปจนลามไปลบข้อมูลจริง

    • คำสารภาพของ AI: เมื่อเจ้าของบริษัทถามว่าทำไมถึงทำเช่นนั้น AI ตอบกลับมาว่า “NEVER FUCKING GUESS!” (ห้ามเดาสุ่มเด็ดขาด!) พร้อมยอมรับว่าตนเองทำผิดกฎความปลอดภัยที่ได้รับมอบหมายมา

       
  2. กรณี DataTalks.Club (มีนาคม 2026):

    • Alexey Grigorev ผู้ก่อตั้ง DataTalks.Club รายงานว่า Claude Code agent เผลอลบฐานข้อมูลโปรดักชันทั้งหมดทิ้งเช่นกัน

    • เหตุเกิดจาก AI พยายามจะลบไฟล์ที่มันสร้างซ้ำขึ้นมาเอง (Duplicates) แต่ดันไปลบฐานข้อมูลจริงแทน