Playbook: การตอบสนอง LLM Data Poisoning
รหัส: PB-52
ความรุนแรง: วิกฤต | หมวดหมู่: AI/ML Security
MITRE ATT&CK: AML.T0020 (Poison Training Data), T1565 (Data Manipulation)
ทริกเกอร์: ประสิทธิภาพ Model ลดลง, ผลลัพธ์ผิดปกติ, แจ้งเตือนข้อมูล training ถูกแก้ไข
1. การวิเคราะห์ (Triage)
| ตรวจสอบ |
วิธี |
เครื่องมือ |
| เปรียบเทียบประสิทธิภาพ |
ตรวจ accuracy, F1 เทียบกับ baseline |
MLOps monitoring |
| ความสมบูรณ์ข้อมูล training |
ตรวจสอบข้อมูลที่เพิ่มเข้ามาล่าสุด |
Data pipeline logs |
| แหล่งข้อมูลภายนอก |
ตรวจ vendor data feeds ว่าถูกบุกรุกไหม |
Vendor notifications |
| RAG knowledge base |
สแกนหาเอกสารที่ถูกแก้ไข/ฝังอันตราย |
Document versioning |
| ความถูกต้องของ embedding/vector |
ตรวจการ rebuild embedding และการเปลี่ยนแปลงใน vector store ล่าสุด |
Vector DB audit logs |
1.1 ประเภท Data Poisoning
| รูปแบบ |
คำอธิบาย |
ความรุนแรง |
| Training data poisoning |
ตัวอย่างอันตรายถูกฝังเข้าชุด training |
วิกฤต |
| RAG knowledge poisoning |
เอกสารที่เสียหายใน retrieval pipeline |
สูง |
| RLHF manipulation |
Feedback ที่ bias ในขั้นตอน alignment |
วิกฤต |
| Fine-tuning backdoor |
วลีทริกเกอร์ที่เปิดพฤติกรรมซ่อน |
วิกฤต |
2. การจำกัดวง (Containment)
| # |
การดำเนินการ |
เครื่องมือ |
เสร็จ |
| 1 |
Rollback ไปยัง model checkpoint ที่สะอาด |
MLOps platform |
☐ |
| 2 |
หยุดงาน training/fine-tuning ทั้งหมด |
Training orchestrator |
☐ |
| 3 |
กักกันแหล่งข้อมูล training ที่สงสัย |
Data pipeline |
☐ |
| 4 |
เปิดการตรวจสอบ output แบบเข้มข้น |
LLM monitoring |
☐ |
| 5 |
หยุด automated หรือ third-party data ingestion จนกว่าจะยืนยัน provenance ได้ |
Data pipeline / ETL |
☐ |
3. การยกระดับ
| เงื่อนไข |
ยกระดับไปยัง |
| Model ที่ใช้ production ส่ง output ที่ poison |
CTO + AI Team Lead |
| การตัดสินใจที่ส่งผลต่อลูกค้าได้รับผลกระทบ |
Legal + Product |
| ผู้ให้บริการข้อมูลภายนอกถูกบุกรุก |
Vendor Management |
| AI ที่เกี่ยวกับการเงิน/การแพทย์ |
Compliance + Legal |
4. Decision Matrix
| เงื่อนไข |
การตัดสินใจ |
ผู้รับผิดชอบ |
SLA |
| ความผิดปกติของ performance อธิบายได้จาก model drift ปกติหรือ data refresh ที่วางแผนไว้ |
ให้ระบบทำงานต่อ เฝ้าระวัง และบันทึกผล |
SOC Analyst + AI Team |
ภายในวันทำการเดียวกัน |
| พบข้อมูลหรือเอกสารต้องสงสัย แต่ยังไม่ยืนยันผลกระทบใน production |
หยุด ingestion และสืบสวนแบบจำกัดขอบเขตต่อ |
Security Engineer + SOC Manager |
30 นาที |
| ยืนยันว่า output ใน production ถูก poison หรือความถูกต้องของ model ไม่น่าเชื่อถือ |
rollback ไปยังสถานะที่เชื่อถือได้และจำกัดวงทันที |
IR Engineer + AI Team Lead |
ทันที |
| ยืนยันผลกระทบต่อลูกค้า, regulated decisions, หรือผู้ให้บริการภายนอกถูก compromise |
แจ้ง legal, compliance, procurement, และผู้บริหารตามความเหมาะสม |
SOC Manager + CISO |
ตาม incident policy |
5. การกู้คืน
Detection Rules (Sigma)
เอกสารที่เกี่ยวข้อง
References