แนวทางการแก้ไขปัญหาเกี่ยวกับ AI
บทความนี้อธิบายวิธีตรวจสอบและแก้ไขปัญหาการทำงานของ AI Agent ใน Zaapi เช่น การตอบผิด การไม่ทำงานตาม Scenario หรือการให้ข้อมูลล้าสมัย โดยใช้เครื่องมือ “Show Thinking” เพื่อวิเคราะห์สาเหตุอย่างมีประสิทธิ
ภาพรวม
แม้ว่า AI Agent ของ Zaapi จะทรงพลัง แต่ประสิทธิภาพของมันขึ้นอยู่กับคุณภาพของข้อมูลที่ใช้ฝึกสอนทั้งหมด หากพบว่า AI ตอบผิด แสดงพฤติกรรมแปลก หรือไม่ทำงานตามที่คาดไว้ ปัญหามักเกิดจาก การฝึกสอน (Training Data) ที่ไม่ครบถ้วนหรือไม่ชัดเจน ซึ่งสามารถแก้ไขได้ด้วยการปรับปรุงข้อมูลการฝึกสอน
คู่มือนี้จะแนะนำขั้นตอนการวิเคราะห์และแก้ไขปัญหาที่พบบ่อยที่สุด
ขั้นตอนแรก: ใช้ “Show Thinking” เพื่อวิเคราะห์สาเหตุ
ก่อนจะแก้ไขปัญหา จำเป็นต้องเข้าใจว่ามันเกิดขึ้นได้อย่างไร เครื่องมือที่สำคัญที่สุดคือฟังก์ชัน “Show thinking” บนหน้า Test
เมื่อ AI ตอบกลับ ให้คลิกปุ่ม “Show thinking” ใต้ข้อความนั้น ระบบจะแสดงกระบวนการคิดของ AI แบบละเอียด โดยคุณจะเห็นว่า:
AI พยายามค้นหา Scenario ใดและประสบความสำเร็จหรือไม่
AI ดึงข้อมูลจาก Knowledge Source ส่วนใดมาใช้ตอบ
AI ปฏิบัติตาม Guidelines หรือกฎเฉพาะข้อใดในการสร้างคำตอบ
เมื่อเข้าใจเหตุผลเบื้องหลังการตอบ คุณก็จะสามารถแก้ไขได้ตรงจุด
ปัญหาที่พบบ่อยและวิธีแก้ไข (Common Problems and How to Fix Them)
1. AI ให้ข้อมูลผิดหรือเก่า
ปัญหา: ลูกค้าถามนโยบายการคืนสินค้า แต่ AI ตอบด้วยข้อมูลที่ล้าสมัย
สาเหตุที่เป็นไปได้: AI ดึงข้อมูลจาก Knowledge Source ที่มีโครงสร้างไม่ดี หรือเนื้อหาล้าสมัย ทำให้ไม่สามารถแยกข้อมูลที่ถูกต้องได้
วิธีแก้ไข:
ใช้ “Show thinking” เพื่อตรวจสอบว่า AI ใช้ Knowledge Source ใด
เปิดดูเอกสารนั้นเพื่อปรับปรุงเนื้อหาให้ชัดเจนและมีหัวข้อแยกชัด (Headings)
ปรับโครงสร้างให้เป็นไปตามแนวทางในบทความ Best Practices for AI Knowledge Sources
2. AI ไม่ทำตาม Scenario ที่ตั้งไว้
ปัญหา: มี Scenario สำหรับ “คำขอคืนเงิน” แต่เมื่อมีลูกค้าพิมพ์ว่า “อยากได้เงินคืน” AI กลับตอบแบบทั่วไปแทนที่จะทำตามขั้นตอนใน Scenario
สาเหตุที่เป็นไปได้: คำอธิบาย Trigger ใน Scenario ไม่ครอบคลุมรูปแบบประโยคของลูกค้า
วิธีแก้ไข:
ไปที่ AI Agent → Train → Scenario Handling
แก้ไข Scenario ที่เกี่ยวข้อง
ในช่อง “When this scenario should trigger” เพิ่มรูปแบบคำถามหลายแบบที่ลูกค้าอาจใช้ เช่น “ลูกค้าไม่พอใจและขอคืนเงิน” “ลูกค้าบอกว่าอยากได้เงินคืน” “ลูกค้ารู้สึกว่าสินค้าไม่ตรงตามที่คาดหวัง” ยิ่งคำอธิบายชัดเจน AI ก็ยิ่งเข้าใจเจตนาได้ดีขึ้น
3. Knowledge Source จากเว็บไซต์ให้ข้อมูลไม่ตรง
ปัญหา: คุณเพิ่มหน้า FAQ ของเว็บไซต์เป็นแหล่งข้อมูล แต่ AI ดึงข้อความจากเมนูหรือส่วนอื่นที่ไม่เกี่ยวข้อง เช่น Sidebar หรือ Footer
สาเหตุที่เป็นไปได้: โครงสร้างเว็บไซต์ซับซ้อนเกินไป ทำให้ระบบดึงข้อมูลปนกับองค์ประกอบอื่น
วิธีแก้ไข:
หยุดใช้การดึงข้อมูลจากเว็บไซต์โดยตรง
คัดลอกข้อความจากหน้าเว็บที่ต้องการ แล้ววางลงในเอกสาร Word (.docx) หรือเพิ่มข้อมูลด้วยตนเองในช่อง “Write it yourself”
ใช้หัวข้อ (Headings) ที่ชัดเจนและแบ่งหัวข้อย่อย เพื่อให้ AI เรียนรู้เฉพาะข้อมูลที่คุณต้องการ
ความแตกต่างระหว่าง AI Agent และ Flow Builder Chatbot
จำไว้ว่าระบบ AI Agent ไม่เหมือนกับ Chatbot แบบ Flow Builder
Flow Builder
ทำงานตามสคริปต์ที่กำหนดแน่นอนทุกครั้ง
กระบวนการแบบตายตัว เช่น คัดกรองลูกค้า หรือเก็บข้อมูลเบื้องต้น
AI Agent
ใช้ความเข้าใจตามบริบท สนทนาได้ยืดหยุ่นและเป็นธรรมชาติ
การตอบคำถามทั่วไป การสนับสนุนลูกค้าแบบอัตโนมัติ
หากคุณต้องการให้ระบบตอบตามสคริปต์แบบคำต่อคำ ใช้ Flow Builder จะเหมาะสมกว่า
ปัญหา “Hallucination” คืออะไร และควรทำอย่างไร
บางครั้ง AI อาจให้คำตอบที่ไม่เกี่ยวข้องกับข้อมูลฝึกสอน หรือดูเหมือน “แต่งขึ้นเอง” ซึ่งเรียกว่า Hallucination เป็นพฤติกรรมที่เกิดขึ้นได้ในโมเดลภาษาขนาดใหญ่ (Large Language Models)
หากเกิดขึ้นเพียงครั้งเดียว: อาจเป็นความผิดพลาดชั่วคราว ควรเฝ้าสังเกตว่ามีเกิดซ้ำหรือไม่
หากเกิดซ้ำบ่อย: แสดงว่าข้อมูลฝึกสอนไม่ชัดเจน หรือ AI อ้างอิงจากแหล่งข้อมูลผิด
หากคุณพบปัญหา Hallucination ซ้ำๆ และไม่สามารถแก้ได้ด้วยการปรับปรุง Training Data โปรดติดต่อทีมสนับสนุนของ Zaapi เพื่อรับความช่วยเหลือเพิ่มเติม
Last updated
Was this helpful?