หลังจาก 15 เดือนของการระดมสมองและรวบรวมข้อเสนอแนะจากสาธารณะ คณะกรรมการนวัตกรรมด้านกลาโหมได้ระบุปัญหาที่ยุ่งยากที่สุดที่ปัญญาประดิษฐ์สามารถยกระดับให้กับเพนตากอนได้หากปล่อยไว้โดยไม่ตรวจสอบในร่างสุดท้ายของคำแนะนำเกี่ยวกับจริยธรรมของ AI ต่อ Mark Esper รัฐมนตรีกลาโหม คณะกรรมการผู้เชี่ยวชาญด้านอุตสาหกรรมเทคโนโลยีได้เรียกร้องให้ DoD มีความสามารถที่จะดึงปลั๊กออกจากระบบ AI ในกรณีที่อัลกอริทึมเหล่านั้นเริ่มทำการตัดสินใจที่นอกเหนือไปจากของพวกเขา จ่ายเกรด
จากประสบการณ์ของเขาในการสร้างระบบ AI Danny Hillis
ผู้ร่วมก่อตั้ง Applied Invention กล่าวว่าบอท AI นั้นเชี่ยวชาญในการพัฒนาพฤติกรรมของพวกเขาในรูปแบบที่ยากสำหรับนักออกแบบที่จะคาดเดาได้ และมีความถนัดในการค้นพบ “วิธีที่ยุ่งยากมาก รอบ ๆ กฎที่ฉันพยายามวางไว้”
ข้อมูลเชิงลึกโดย Carahsoft: เป็นเรื่องยากที่จะไปหนึ่งวันโดยไม่ได้ยินคนในรัฐบาลพูดถึงประสบการณ์ของลูกค้า มันสมเหตุสมผลแล้วที่เอเจนซี่ให้บริการตลอด 24 ชั่วโมงทุกวัน ebook เล่มใหม่ของเราเสนอกลยุทธ์จากผู้นำรัฐบาลกลาง 11 คนและผู้เชี่ยวชาญในอุตสาหกรรม 5 คนเพื่อช่วยปรับปรุง CX ในขณะนี้
“บางครั้งรูปแบบพฤติกรรมเหล่านั้นก็จริง ๆ แล้วเป็นการถนอมตัวเอง ซึ่งอาจขัดกับความตั้งใจและเป้าหมายของนักออกแบบ” ฮิลลิสกล่าว “ฉันคิดว่านี่เป็นหนึ่งในแง่มุมที่อันตรายที่สุดเกี่ยวกับพวกเขา”
ฮิลลิสกล่าวว่าระบบ AI ที่ DoD ใช้งานควรมี “สวิตช์ปิด” ที่เชื่อถือได้ซึ่งสามารถสั่งงานโดยอัตโนมัติหรือด้วยตนเองโดยผู้ปฏิบัติงานที่เป็นมนุษย์ การเน้นที่การแทรกแซงของมนุษย์นั้นโดดเด่นเป็นหนึ่งในห้าหลักการที่คณะกรรมการร่างไว้เพื่อให้กระทรวงพิจารณา
“ประเด็นที่เรานำเสนอในที่นี้คือจะเกิดอะไรขึ้นหากระบบ
ในภาคสนามเริ่มแสดงพฤติกรรมที่ไม่ใช่พฤติกรรมที่ตั้งใจไว้ และเราเชื่อว่าสิ่งสำคัญคือต้องตระหนักว่าหลักการควรช่วยให้เราสามารถปลดแอกและ ปิดพฤติกรรมนั้น” Michael McQuade รองประธานฝ่ายวิจัยของมหาวิทยาลัย Carnegie Mellon กล่าว
Milo Medin รองประธานฝ่ายบริการไร้สายของ Google กล่าวกับผู้สื่อข่าวหลังการนำเสนอว่าการสร้างสวิตช์ปิดดังกล่าวในระบบ AI จะมีลักษณะเหมือนกับกระบวนการที่รัฐบาลและอุตสาหกรรมใช้ในปัจจุบันสำหรับระบบไอทีมาตรฐาน
“คุณมีระบบอื่นที่บอกว่า ‘ดูสิ มันไม่ควรทำแบบนี้’ ดังนั้นฉันจะใส่ฮาร์ดแวร์หรือโปรเซสเซอร์เฉพาะหรือบางอย่างเพื่อให้แน่ใจว่าได้รับการดูแล เพื่อให้แน่ใจว่าซอฟต์แวร์จะไม่ เคยทำอย่างนั้น” เมดินกล่าว
เริ่มต้นด้วยรายการร่างหลักการ 25 ข้อ คณะกรรมการได้เลือกสิ่งต่อไปนี้เป็นค่านิยมหลักทางจริยธรรมสำหรับ DoD เพื่อพิจารณาเมื่อนำเทคโนโลยีที่เกิดขึ้นใหม่นี้ไปใช้:
มีความรับผิดชอบ — “มนุษย์ควรใช้วิจารณญาณในระดับที่เหมาะสมและ
ยังคงรับผิดชอบต่อการพัฒนา การปรับใช้ การใช้งาน และผลลัพธ์ของ
ระบบ DoD AI”
ความเสมอภาค — “DoD ควรดำเนินการอย่างรอบคอบเพื่อหลีกเลี่ยงอคติที่ไม่ได้ตั้งใจในการ
พัฒนาและการปรับใช้ระบบ AI ต่อสู้หรือไม่ใช่การต่อสู้ที่จะ
ก่อให้เกิดอันตรายต่อบุคคลโดยไม่ได้ตั้งใจ”
ตรวจสอบย้อนกลับได้ — “ระเบียบวินัยด้านวิศวกรรม AI ของ DoD ควรก้าวหน้าเพียงพอเพื่อ
ให้ผู้เชี่ยวชาญทางเทคนิคมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี
กระบวนการพัฒนา และวิธีการปฏิบัติงานของระบบ AI รวมถึง
วิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ตลอดจนขั้นตอนการออกแบบและ
เอกสารประกอบ”
เชื่อถือได้ — “ระบบ DoD AI ควรมีขอบเขตการใช้งานที่ชัดเจนและชัดเจน และ
ความปลอดภัย การรักษาความปลอดภัย และความทนทานของระบบดังกล่าวควรได้รับการทดสอบและรับประกัน
ตลอดวงจรชีวิตภายในขอบเขตการใช้งานนั้น”
Governable — “ระบบ DoD AI ควรได้รับการออกแบบและวิศวกรรมเพื่อตอบสนอง
การทำงานที่ตั้งใจไว้ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงอันตราย
Credit : สล็อตยูฟ่าเว็บตรง