Google เปิดเผยว่าแชตบอตปัญญาประดิษฐ์เรือธงอย่าง Google Gemini ตกเป็นเป้าของกลุ่มผู้ไม่หวังดีที่พยายาม “โคลน” ความสามารถของระบบ โดยใช้วิธีส่งคำสั่งซ้ำๆในปริมาณมหาศาล บางกรณีมีการยิงคำสั่งมากกว่า 100,000 ครั้ง
ในรายงานที่เผยแพร่เมื่อวันพฤหัสบดี Google ระบุว่าบริษัทกำลังเผชิญกับสิ่งที่เรียกว่า “distillation attacks” หรือการตั้งคำถามซ้ำๆอย่างเป็นระบบ เพื่อบังคับให้แชตบอตเปิดเผยโครงสร้างการทำงานภายใน บริษัทเรียกพฤติกรรมนี้ว่า “model extraction” ซึ่งผู้โจมตีพยายามวิเคราะห์รูปแบบและตรรกะของระบบ เพื่อนำไปสร้างหรือพัฒนา AI ของตนเอง
Google เชื่อว่าผู้ที่อยู่เบื้องหลังส่วนใหญ่เป็นบริษัทเอกชนหรือนักวิจัยที่ต้องการความได้เปรียบทางการแข่งขัน โฆษกของบริษัทให้สัมภาษณ์กับ NBC News ว่าการโจมตีมาจากหลายประเทศ แต่ปฏิเสธที่จะเปิดเผยรายละเอียดเพิ่มเติมเกี่ยวกับผู้ต้องสงสัย
สัญญาณเตือนต่ออุตสาหกรรม AI
จอห์น ฮัลท์ควิสต์ หัวหน้านักวิเคราะห์ของ Google Threat Intelligence Group ระบุว่าขนาดของการโจมตีต่อ Gemini บ่งชี้ว่าพฤติกรรมลักษณะนี้มีแนวโน้มจะกลายเป็นเรื่องปกติ โดยเฉพาะกับบริษัทขนาดเล็กที่พัฒนาเครื่องมือ AI แบบเฉพาะทาง
เขากล่าวว่า “เราจะเป็นเหมือนนกคีรีบูนในเหมืองถ่านหิน สำหรับเหตุการณ์อีกมากที่จะตามมา” พร้อมปฏิเสธที่จะระบุชื่อผู้ต้องสงสัย
Google มองว่าการทำ distillation เป็นรูปแบบหนึ่งของการขโมยทรัพย์สินทางปัญญา ท่ามกลางการแข่งขันอย่างดุเดือดในอุตสาหกรรม AI ที่บริษัทเทคโนโลยีลงทุนหลายพันล้านดอลลาร์เพื่อพัฒนาโมเดลภาษาขนาดใหญ่
แม้บริษัทจะมีระบบตรวจจับและบล็อกการโจมตีลักษณะนี้ แต่โมเดล AI ขนาดใหญ่โดยธรรมชาติยังคงมีความเปราะบาง เพราะเปิดให้ผู้ใช้ทั่วโลกเข้าถึงได้ผ่านอินเทอร์เน็ต
ก่อนหน้านี้ OpenAI ผู้พัฒนา ChatGPT เคยกล่าวหาคู่แข่งจากจีนอย่าง DeepSeek ว่าใช้เทคนิค distillation เพื่อปรับปรุงโมเดลของตน
Google ระบุว่าการโจมตีจำนวนมากถูกออกแบบมาเพื่อดึงข้อมูลเกี่ยวกับอัลกอริทึมที่ช่วยให้ Gemini “ใช้เหตุผล” หรือประมวลผลข้อมูล ฮัลท์ควิสต์เตือนว่า เมื่อบริษัทต่างๆเริ่มสร้าง LLM เฉพาะทางที่ฝึกด้วยข้อมูลอ่อนไหว ความเสี่ยงจากการโจมตีแบบเดียวกันก็จะเพิ่มขึ้นตามไปด้วย
เขายกตัวอย่างว่า หาก LLM ถูกฝึกด้วย “องค์ความรู้ลับด้านการซื้อขายตลอด 100 ปี” ก็มีความเป็นไปได้ในทางทฤษฎีที่ความรู้นั้นจะถูกสกัดออกมาได้ผ่านกระบวนการ distillation
ที่มา NBC