คณะกรรมการนวัตกรรมกลาโหมพยายาม ‘ปิดสวิตช์’ เพื่อควบคุม AI อันธพาล

คณะกรรมการนวัตกรรมกลาโหมพยายาม 'ปิดสวิตช์' เพื่อควบคุม AI อันธพาล

หลังจาก 15 เดือนของการระดมสมองและรวบรวมข้อเสนอแนะจากสาธารณะ คณะกรรมการนวัตกรรมด้านกลาโหมได้ระบุปัญหาที่ยุ่งยากที่สุดที่ปัญญาประดิษฐ์สามารถยกระดับให้กับเพนตากอนได้หากปล่อยไว้โดยไม่ตรวจสอบในร่างสุดท้ายของคำแนะนำเกี่ยวกับจริยธรรมของ AI ต่อ Mark Esper รัฐมนตรีกลาโหม คณะกรรมการผู้เชี่ยวชาญด้านอุตสาหกรรมเทคโนโลยีได้เรียกร้องให้ DoD มีความสามารถที่จะดึงปลั๊กออกจากระบบ AI ในกรณีที่อัลกอริทึมเหล่านั้นเริ่มทำการตัดสินใจที่นอกเหนือไปจากของพวกเขา จ่ายเกรด

จากประสบการณ์ของเขาในการสร้างระบบ AI Danny Hillis

 ผู้ร่วมก่อตั้ง Applied Invention กล่าวว่าบอท AI นั้นเชี่ยวชาญในการพัฒนาพฤติกรรมของพวกเขาในรูปแบบที่ยากสำหรับนักออกแบบที่จะคาดเดาได้ และมีความถนัดในการค้นพบ “วิธีที่ยุ่งยากมาก รอบ ๆ กฎที่ฉันพยายามวางไว้”

        ข้อมูลเชิงลึกโดย Carahsoft: เป็นเรื่องยากที่จะไปหนึ่งวันโดยไม่ได้ยินคนในรัฐบาลพูดถึงประสบการณ์ของลูกค้า มันสมเหตุสมผลแล้วที่เอเจนซี่ให้บริการตลอด 24 ชั่วโมงทุกวัน ebook เล่มใหม่ของเราเสนอกลยุทธ์จากผู้นำรัฐบาลกลาง 11 คนและผู้เชี่ยวชาญในอุตสาหกรรม 5 คนเพื่อช่วยปรับปรุง CX ในขณะนี้

“บางครั้งรูปแบบพฤติกรรมเหล่านั้นก็จริง ๆ แล้วเป็นการถนอมตัวเอง ซึ่งอาจขัดกับความตั้งใจและเป้าหมายของนักออกแบบ” ฮิลลิสกล่าว “ฉันคิดว่านี่เป็นหนึ่งในแง่มุมที่อันตรายที่สุดเกี่ยวกับพวกเขา”

ฮิลลิสกล่าวว่าระบบ AI ที่ DoD ใช้งานควรมี “สวิตช์ปิด” ที่เชื่อถือได้ซึ่งสามารถสั่งงานโดยอัตโนมัติหรือด้วยตนเองโดยผู้ปฏิบัติงานที่เป็นมนุษย์ การเน้นที่การแทรกแซงของมนุษย์นั้นโดดเด่นเป็นหนึ่งในห้าหลักการที่คณะกรรมการร่างไว้เพื่อให้กระทรวงพิจารณา

“ประเด็นที่เรานำเสนอในที่นี้คือจะเกิดอะไรขึ้นหากระบบ

ในภาคสนามเริ่มแสดงพฤติกรรมที่ไม่ใช่พฤติกรรมที่ตั้งใจไว้ และเราเชื่อว่าสิ่งสำคัญคือต้องตระหนักว่าหลักการควรช่วยให้เราสามารถปลดแอกและ ปิดพฤติกรรมนั้น” Michael McQuade รองประธานฝ่ายวิจัยของมหาวิทยาลัย Carnegie Mellon กล่าว

Milo Medin รองประธานฝ่ายบริการไร้สายของ Google กล่าวกับผู้สื่อข่าวหลังการนำเสนอว่าการสร้างสวิตช์ปิดดังกล่าวในระบบ AI จะมีลักษณะเหมือนกับกระบวนการที่รัฐบาลและอุตสาหกรรมใช้ในปัจจุบันสำหรับระบบไอทีมาตรฐาน

“คุณมีระบบอื่นที่บอกว่า ‘ดูสิ มันไม่ควรทำแบบนี้’ ดังนั้นฉันจะใส่ฮาร์ดแวร์หรือโปรเซสเซอร์เฉพาะหรือบางอย่างเพื่อให้แน่ใจว่าได้รับการดูแล เพื่อให้แน่ใจว่าซอฟต์แวร์จะไม่ เคยทำอย่างนั้น” เมดินกล่าว

เริ่มต้นด้วยรายการร่างหลักการ 25 ข้อ คณะกรรมการได้เลือกสิ่งต่อไปนี้เป็นค่านิยมหลักทางจริยธรรมสำหรับ DoD เพื่อพิจารณาเมื่อนำเทคโนโลยีที่เกิดขึ้นใหม่นี้ไปใช้:

มีความรับผิดชอบ  — “มนุษย์ควรใช้วิจารณญาณในระดับที่เหมาะสมและ

ยังคงรับผิดชอบต่อการพัฒนา การปรับใช้ การใช้งาน และผลลัพธ์ของ

ระบบ DoD AI”

ความเสมอภาค  — “DoD ควรดำเนินการอย่างรอบคอบเพื่อหลีกเลี่ยงอคติที่ไม่ได้ตั้งใจในการ

พัฒนาและการปรับใช้ระบบ AI ต่อสู้หรือไม่ใช่การต่อสู้ที่จะ

ก่อให้เกิดอันตรายต่อบุคคลโดยไม่ได้ตั้งใจ”

ตรวจสอบย้อนกลับได้  — “ระเบียบวินัยด้านวิศวกรรม AI ของ DoD ควรก้าวหน้าเพียงพอเพื่อ

ให้ผู้เชี่ยวชาญทางเทคนิคมีความเข้าใจที่เหมาะสมเกี่ยวกับเทคโนโลยี

กระบวนการพัฒนา และวิธีการปฏิบัติงานของระบบ AI รวมถึง

วิธีการที่โปร่งใสและตรวจสอบได้ แหล่งข้อมูล ตลอดจนขั้นตอนการออกแบบและ

เอกสารประกอบ”

เชื่อถือได้  — “ระบบ DoD AI ควรมีขอบเขตการใช้งานที่ชัดเจนและชัดเจน และ

ความปลอดภัย การรักษาความปลอดภัย และความทนทานของระบบดังกล่าวควรได้รับการทดสอบและรับประกัน

ตลอดวงจรชีวิตภายในขอบเขตการใช้งานนั้น”

Governable  — “ระบบ DoD AI ควรได้รับการออกแบบและวิศวกรรมเพื่อตอบสนอง

การทำงานที่ตั้งใจไว้ในขณะที่มีความสามารถในการตรวจจับและหลีกเลี่ยงอันตราย

Credit : สล็อตยูฟ่าเว็บตรง