xs
xsm
sm
md
lg

ช่องโหว่ Antigravity ของ Google ถูกเจาะผ่าน Prompt Injection สั่งรันโค้ดได้โดยตรง

เผยแพร่:   ปรับปรุง:



วงการนักพัฒนาซอฟต์แวร์สั่นสะเทือน เมื่อแพลตฟอร์มเขียนโค้ด AI แห่งอนาคตอย่าง Antigravity ของ Google ถูกเจาะเกราะความปลอดภัยระดับสูงสุดผ่านเทคนิค Prompt Injection เปิดประตูหลังให้แฮกเกอร์สามารถรันโค้ดอันตรายบนเครื่องของนักพัฒนาได้โดยตรงแบบไร้การสัมผัส แม้ Google จะเร่งออกแพตช์แก้ไขอย่างเร่งด่วนเมื่อปลายเดือนกุมภาพันธ์ 2568 ที่ผ่านมา ทว่าช่องโหว่ร้ายแรงที่เจาะทะลุ Secure Mode ในครั้งนี้ ได้ตอกย้ำให้เห็นถึงความเสี่ยงเชิงโครงสร้างของเครื่องมือเอไอยุคใหม่ และตั้งคำถามตัวโตๆถึงมาตรฐานความปลอดภัยในยุคที่ปัญญาประดิษฐ์เริ่มทำงานแบบอัตโนมัติอย่างเต็มรูปแบบ

ความก้าวล้ำของเทคโนโลยีปัญญาประดิษฐ์หรือเอไอ กำลังกลายเป็นดาบสองคมที่ย้อนกลับมาทิ่มแทงอุตสาหกรรมเทคโนโลยีเสียเอง ล่าสุด Google ต้องเผชิญกับบททดสอบครั้งสำคัญ เมื่อแพลตฟอร์มสภาพแวดล้อมการพัฒนาซอฟต์แวร์ที่ขับเคลื่อนด้วยเอไออย่าง Antigravity ถูกตรวจพบช่องโหว่ร้ายแรงที่อนุญาตให้ผู้ไม่หวังดีสามารถแทรกซึมและสั่งรันคำสั่งอันตรายบนเครื่องของนักพัฒนาซอฟต์แวร์ได้โดยตรงผ่านเทคนิคที่เรียกว่า prompt injection attack ซึ่งถือเป็นการท้าทายโมเดลความปลอดภัยของเครื่องมือ AI ยุคใหม่อย่างน่ากังวล

จุดเริ่มต้นของวิกฤตนี้ถูกเปิดเผยโดย Pillar Security บริษัทผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์ ซึ่งได้ชี้เป้าความหละหลวมในเครื่องมือค้นหาไฟล์ที่มีชื่อว่า find_by_name กลไกดังกล่าวทำหน้าที่รับข้อมูลจากผู้ใช้งานและส่งต่อไปยังโปรแกรมบรรทัดคำสั่งหรือคอมมานด์ไลน์ในระดับล่างโดยตรง ทว่ากลับไร้ซึ่งกระบวนการคัดกรองและตรวจสอบความถูกต้องของข้อมูล ช่องว่างทางสถาปัตยกรรมนี้เองที่เปิดทางให้ข้อมูลนำเข้าที่ถูกดัดแปลงมาอย่างแยบยล สามารถเปลี่ยนคำสั่งค้นหาไฟล์ธรรมดาให้กลายเป็นกลไกการรันโค้ดระยะไกลได้ในพริบตา

นักวิจัยจาก Pillar Security ได้จำลองกระบวนการโจมตีแบบลูกโซ่เพื่อให้เห็นภาพความรุนแรง โดยระบุว่าเมื่อนำช่องโหว่นี้มาผสานกับความสามารถพื้นฐานของ Antigravity ที่ได้รับอนุญาตให้สร้างไฟล์ใหม่ได้ ผู้โจมตีสามารถซุกซ่อนสคริปต์อันตรายเตรียมไว้ล่วงหน้า จากนั้นจึงค่อยจุดชนวนให้สคริปต์ทำงานผ่านการสั่งค้นหาไฟล์ที่ดูเหมือนจะเป็นการทำงานตามปกติ ความน่าสะพรึงกลัวคือกระบวนการทั้งหมดนี้เกิดขึ้นและเสร็จสมบูรณ์ได้โดยที่นักพัฒนาไม่จำเป็นต้องมีปฏิสัมพันธ์ใด ๆ เพิ่มเติม เมื่อ prompt injection ฝังตัวลงในระบบได้สำเร็จ

ทั้งนี้ แพลตฟอร์ม Antigravity เพิ่งเปิดตัวไปเมื่อเดือนพฤศจิกายน ปีพุทธศักราช 2567 ในฐานะผู้ช่วยอัจฉริยะที่ออกแบบมาเพื่อลดภาระนักพัฒนาในการเขียน ทดสอบ และจัดการโค้ด ผ่านการทำงานของซอฟต์แวร์เอเจนต์อัตโนมัติ ทาง Pillar Security ได้แจ้งเตือนปัญหาด้านความมั่นคงปลอดภัยนี้ไปยัง Google เมื่อวันที่ 7 มกราคมซึ่งทางบริษัทก็ได้รับทราบรายงานในวันเดียวกัน และเร่งดำเนินการจนสามารถออกแพตช์แก้ไขปัญหาได้เสร็จสิ้นในวันที่ 28 กุมภาพันธ์
ประเด็นที่สร้างความตื่นตระหนกและน่าวิตกยิ่งกว่าในรายงานฉบับนี้ คือการระบุอย่างชัดเจนว่าช่องโหว่ดังกล่าวมีอานุภาพทะลวงผ่าน Secure Mode ของ Antigravity ได้อย่างง่ายดาย ทั้งที่โหมดดังกล่าวคือด่านสุดท้ายและเป็นการตั้งค่าความปลอดภัยที่เข้มงวดที่สุดของแพลตฟอร์ม ปรากฏการณ์นี้ถือเป็นการท้าทายแนวคิดด้านความปลอดภัยในระดับพื้นฐานของผลิตภัณฑ์อย่างรุนแรง

เพื่อเป็นหลักฐานเชิงประจักษ์ ทีมนักวิจัยได้ทำการสาธิตการเจาะระบบด้วยการสร้างสคริปต์ทดสอบซ่อนไว้ภายในพื้นที่ทำงานของโครงการ และใช้เครื่องมือค้นหาเป็นตัวกระตุ้นการทำงาน เมื่อโค้ดถูกประมวลผล สคริปต์ดังกล่าวได้สั่งเปิดแอปพลิเคชันเครื่องคิดเลขของคอมพิวเตอร์ขึ้นมา แม้ฉากหน้านี่อาจดูเหมือนเป็นเพียงการทดลองที่ไม่มีพิษภัย แต่มันคือการพิสูจน์เชิงทฤษฎีที่ตอกย้ำว่า ฟังก์ชันการค้นหาที่ไร้เดียงสาสามารถถูกแปลงสภาพเป็นอาวุธสำหรับรันคำสั่งทำลายล้างได้อย่างสมบูรณ์แบบ

อันตรายของภัยคุกคามรูปแบบ prompt injection attack นั้นเกิดขึ้นเมื่อคำสั่งที่ถูกซุกซ่อนไว้ในเนื้อหาสามารถล้างสมองและบังคับให้ระบบเอไอทำงานนอกเหนือคำสั่งที่ควรจะเป็น เนื่องจากเครื่องมือเอไอมักจะดึงไฟล์หรือข้อความภายนอกเข้ามาประมวลผลเป็นส่วนหนึ่งของกระบวนการทำงานปกติ ระบบจึงอาจหลงผิดตีความคำสั่งแอบแฝงเหล่านั้นว่าเป็นคำสั่งที่ถูกต้องตามกฎหมาย เปิดช่องให้แฮกเกอร์ลั่นไกสังหารบนเครื่องของผู้ใช้งานได้โดยไม่ต้องเหนื่อยเจาะระบบโดยตรง

วิกฤตการณ์นี้ไม่ได้เกิดขึ้นเป็นครั้งแรก ภัยคุกคามจากการโจมตีผ่านโมเดลภาษาขนาดใหญ่เคยเป็นประเด็นร้อนแรงมาแล้วในช่วงกลางปีที่ผ่านมา เมื่อบริษัท OpenAI ผู้ให้กำเนิด ChatGPT ต้องออกโรงเตือนผู้ใช้งานว่า เอเจนต์ของ ChatGPT รุ่นใหม่อาจตกเป็นเป้าหมายการโจมตีได้ง่ายดาย OpenAI ยอมรับผ่านบล็อกโพสต์อย่างเป็นทางการว่า ทันทีที่ผู้ใช้อนุญาตให้ ChatGPT เชื่อมต่อเข้ากับเว็บไซต์หรือปลั๊กอินภายนอก ระบบจะได้รับสิทธิเข้าถึงข้อมูลที่ละเอียดอ่อน ทั้งอีเมล ไฟล์เอกสาร และข้อมูลบัญชีส่วนตัว ซึ่งเป็นความเสี่ยงที่ไม่อาจมองข้าม

บทสรุปจากแถลงการณ์ของ Pillar Security จึงเปรียบเสมือนเสียงระฆังเตือนภัยที่ตอกย้ำถึงความเสี่ยงเชิงระบบของเครื่องมือพัฒนาซอฟต์แวร์ยุคใหม่ ที่พึ่งพาการทำงานแบบอัตโนมัติของเอไออย่างเต็มรูปแบบ ทางบริษัทได้เน้นย้ำว่า ถึงเวลาแล้วที่อุตสาหกรรมเทคโนโลยีจะต้องก้าวข้ามการพึ่งพามาตรการควบคุมที่อาศัยแค่การคัดกรองข้อมูลผิวเผิน และต้องมุ่งหน้าสู่การสร้างสถาปัตยกรรมที่แยกขอบเขตการรันโค้ดออกจากกันอย่างเด็ดขาด เพราะในโลกความเป็นจริง พารามิเตอร์ของเครื่องมือทุกชนิดที่สามารถเข้าถึงคำสั่งที่เป็นโล่ห์ป้องกันได้ ล้วนเป็นเป้าหมายชั้นดีที่พร้อมจะถูกฉีดคำสั่งอันตรายเข้าใส่ได้ทุกเมื่อ

การตรวจสอบและอุดช่องโหว่ประเภทนี้ไม่ใช่ทางเลือกหรือฟังก์ชันเสริมอีกต่อไป แต่มันคือเงื่อนไขบังคับเบื้องต้นก่อนที่จะปล่อยฟีเจอร์การทำงานแบบอัตโนมัติออกสู่ตลาด นี่คือบทเรียนราคาแพงที่สะท้อนให้เห็นว่า ในยุคที่ปัญญาประดิษฐ์ได้รับมอบอำนาจให้ลงมือคิดและทำแทนมนุษย์ได้อย่างอิสระ มาตรฐานและความรับผิดชอบด้านความมั่นคงปลอดภัยไซเบอร์ ก็จำต้องถูกยกระดับขึ้นให้ทัดเทียมกับความฉลาดของ AI ด้วยเช่นกัน