ก่อนจะสายเกินควบคุม! ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญด้าน AI เรียกร้องให้หยุดการทดลอง AI ที่ 'อยู่นอกเหนือการควบคุม'
449 VIEWS
March 30, 2023
technology
ก่อนจะสายเกินควบคุม! ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญด้าน AI เรียกร้องให้หยุดการทดลอง AI ที่ 'อยู่นอกเหนือการควบคุม'
จดหมายเปิดผนึกเตือนถึงความเสี่ยงต่อมนุษย์ หากไม่คำนึงถึงความปลอดภัยมากกว่านี้ จดหมายเปิดผนึกที่ลงนามโดยผู้นำเทคโนโลยีและนักวิจัยด้าน AI ที่มีชื่อเสียงได้เรียกร้องให้ห้องปฏิบัติการและบริษัทด้าน AI "หยุดชั่วคราว" การทำงานของพวกเขาทันที ผู้ลงนามอย่าง Steve Wozniak และ Elon Musk ยอมรับความเสี่ยงที่จะรับประกันการหยุดพักอย่างน้อย 6 เดือนจากการผลิตเทคโนโลยีนอกเหนือจาก GPT-4 เพื่อเพลิดเพลินไปกับระบบ AI ที่มีอยู่ ช่วยให้ผู้คนสามารถปรับตัวได้ และมั่นใจว่าพวกเขาได้รับประโยชน์จากทุกคน จดหมายระบุเพิ่มเติมว่าการดูแลและความรอบคอบเป็นสิ่งจำเป็นเพื่อให้มั่นใจในความปลอดภัยของระบบ AI
การอ้างอิงถึง GPT-4 ซึ่งเป็นแบบจำลองโดย OpenAI ที่สามารถตอบสนองด้วยข้อความเป็นข้อความแบบเขียนหรือแบบภาพ เกิดขึ้นในขณะที่บริษัทต่าง ๆ แข่งขันกันเพื่อสร้างระบบแชทที่ซับซ้อนซึ่งใช้เทคโนโลยีนี้ ตัวอย่างเช่น Microsoft เพิ่งยืนยันว่าเสิร์ชเอ็นจิ้น Bing ที่ปรับปรุงใหม่นั้นขับเคลื่อนโดยรุ่น GPT-4 มานานกว่าเจ็ดสัปดาห์ ในขณะที่ Google เพิ่งเปิดตัว Bard ซึ่งเป็นระบบ AI กำเนิดของตัวเองที่ขับเคลื่อนโดย LaMDA แต่การแข่งขันที่ชัดเจนในการใช้เทคโนโลยี AI ขั้นสูงสุดก่อนทำให้เกิดความกังวลเร่งด่วนมากขึ้น
"โชคไม่ดีที่การวางแผนและการจัดการในระดับนี้ไม่ได้เกิดขึ้น แม้ว่าช่วงไม่กี่เดือนที่ผ่านมาจะเห็นว่าแล็บ AI ถูกขังอยู่ในการแข่งขันที่ไม่สามารถควบคุมได้ เพื่อพัฒนาและใช้งานจิตใจดิจิทัลที่ทรงพลังกว่าเดิม ซึ่งไม่มีใคร หรือแม้แต่ผู้สร้างก็ไม่สามารถเข้าใจได้" จดหมายระบุ
จดหมายที่เกี่ยวข้องเผยแพร่โดย Future of Life Institute (FLI) ซึ่งเป็นองค์กรที่อุทิศตนเพื่อลดความเสี่ยงและการใช้เทคโนโลยีใหม่ในทางที่ผิด ก่อนหน้านี้ Musk ได้บริจาคเงิน 10 ล้านดอลลาร์ให้กับ FLI เพื่อใช้ในการศึกษาเกี่ยวกับความปลอดภัยของ AI นอกจากเขาและ Wozniak แล้ว ผู้ลงนามยังรวมถึงผู้นำด้าน AI ระดับโลก เช่น Marc Rotenberg ประธาน Center for AI และนโยบายดิจิทัล นักฟิสิกส์ของ MIT และ Max Tegmark ประธานสถาบัน Future of Life และผู้เขียน Yuval Noah Harari Harari ยังเป็นผู้ร่วมเขียนบทความใน New York Times เมื่อสัปดาห์ที่แล้ว โดยเตือนเกี่ยวกับความเสี่ยงของ AI ร่วมกับผู้ก่อตั้ง Center for Humane Technology และผู้ร่วมลงนาม Tristan Harris และ Aza Raskin
การเรียกร้องนี้ให้ความรู้สึกเหมือนเป็นขั้นตอนต่อไปจากการสำรวจในปี 2022 ของนักวิจัยด้านแมชชีนเลิร์นนิงกว่า 700 คน ซึ่งเกือบครึ่งหนึ่งของผู้เข้าร่วมระบุว่ามีโอกาส 10 เปอร์เซ็นต์ที่จะเกิด "ผลลัพธ์ที่เลวร้ายอย่างยิ่ง" จาก AI รวมถึงการสูญพันธุ์ของมนุษย์ เมื่อถามถึงความปลอดภัยในการวิจัย AI นักวิจัย 68 เปอร์เซ็นต์กล่าวว่าควรทำมากกว่านี้หรือมากกว่านี้
Niponpan Sasidhorn