ความโปร่งใสแก้ปัญหานี้โดยใช้ แบบจำลองที่แปลได้ง่าย ซึ่งเราจะพูดถึงบางส่วนในหัวข้อถัดไป ความสามารถในการอธิบายช่วยแก้ปัญหานี้ได้ด้วยการ “แกะกล่องดำ” หรือพยายามหาข้อมูลเชิงลึกจากโมเดลการเรียนรู้ของเครื่อง บ่อยครั้งโดยใช้วิธีการทางสถิติ
รูปแบบคำอธิบายคืออะไร
คำอธิบายโมเดลคือ แนวคิดกว้างๆ ของการวิเคราะห์และทำความเข้าใจผลลัพธ์ที่ได้จากโมเดล ML มักใช้ในบริบทของโมเดล "กล่องดำ" ซึ่งยากต่อการสาธิตว่าโมเดลมาถึงการตัดสินใจที่เฉพาะเจาะจงได้อย่างไร
การอธิบายในการเรียนรู้เชิงลึกคืออะไร
การอธิบายได้ (เรียกอีกอย่างว่า “การตีความได้”) คือแนวคิดที่ว่า รูปแบบการเรียนรู้ของเครื่องและผลลัพธ์สามารถอธิบายได้ในลักษณะที่ “สมเหตุสมผล” ต่อมนุษย์ในระดับที่ยอมรับได้ … อื่นๆ เช่น ระบบการเรียนรู้เชิงลึก ในขณะที่มีประสิทธิภาพมากกว่า ก็ยังอธิบายได้ยากกว่ามาก
ความสามารถในการอธิบายในบริบทของระบบ AI คืออะไร
Andrew Maturo นักวิเคราะห์ข้อมูล SPR “AI ที่อธิบายได้ในแง่ง่ายหมายถึง AI ที่โปร่งใสในการดำเนินงานเพื่อให้ผู้ใช้ที่เป็นมนุษย์สามารถเข้าใจและไว้วางใจการตัดสินใจ องค์กรต้องถามคำถาม – คุณสามารถอธิบายได้ว่า AI ของคุณสร้างขึ้นได้อย่างไร ความเข้าใจหรือการตัดสินใจที่เฉพาะเจาะจง?” –
ปัญหาในการอธิบายคืออะไร
ผู้คนมีความชัดเจน ความเกลียดชังต่อการตัดสินใจแบบกล่องดำ ที่ส่งผลกระทบต่อพวกเขาทางการเงิน สุขภาพ และอีกหลายสิบวิธีในขณะเดียวกันก็ลืมการตัดสินใจบางประเภท. … เมื่อ AI ตัดสินใจเหล่านี้ จะได้ยินความต้องการในการอธิบาย