ก่อนจะสายเกินควบคุม! ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญด้าน AI เรียกร้องให้หยุดการทดลอง AI ที่ 'อยู่นอกเหนือการควบคุม'

293 VIEWS

March 30, 2023

technology

ก่อนจะสายเกินควบคุม! ผู้นำด้านเทคโนโลยีและผู้เชี่ยวชาญด้าน AI เรียกร้องให้หยุดการทดลอง AI ที่ 'อยู่นอกเหนือการควบคุม'

จดหมายเปิดผนึกเตือนถึงความเสี่ยงต่อมนุษย์ หากไม่คำนึงถึงความปลอดภัยมากกว่านี้ จดหมายเปิดผนึกที่ลงนามโดยผู้นำเทคโนโลยีและนักวิจัยด้าน AI ที่มีชื่อเสียงได้เรียกร้องให้ห้องปฏิบัติการและบริษัทด้าน AI "หยุดชั่วคราว" การทำงานของพวกเขาทันที ผู้ลงนามอย่าง Steve Wozniak และ Elon Musk ยอมรับความเสี่ยงที่จะรับประกันการหยุดพักอย่างน้อย 6 เดือนจากการผลิตเทคโนโลยีนอกเหนือจาก GPT-4 เพื่อเพลิดเพลินไปกับระบบ AI ที่มีอยู่ ช่วยให้ผู้คนสามารถปรับตัวได้ และมั่นใจว่าพวกเขาได้รับประโยชน์จากทุกคน จดหมายระบุเพิ่มเติมว่าการดูแลและความรอบคอบเป็นสิ่งจำเป็นเพื่อให้มั่นใจในความปลอดภัยของระบบ AI 

twitter elon musk stop ai trainning h3chub

การอ้างอิงถึง GPT-4 ซึ่งเป็นแบบจำลองโดย OpenAI ที่สามารถตอบสนองด้วยข้อความเป็นข้อความแบบเขียนหรือแบบภาพ เกิดขึ้นในขณะที่บริษัทต่าง ๆ แข่งขันกันเพื่อสร้างระบบแชทที่ซับซ้อนซึ่งใช้เทคโนโลยีนี้ ตัวอย่างเช่น Microsoft เพิ่งยืนยันว่าเสิร์ชเอ็นจิ้น Bing ที่ปรับปรุงใหม่นั้นขับเคลื่อนโดยรุ่น GPT-4 มานานกว่าเจ็ดสัปดาห์ ในขณะที่ Google เพิ่งเปิดตัว Bard ซึ่งเป็นระบบ AI กำเนิดของตัวเองที่ขับเคลื่อนโดย LaMDA แต่การแข่งขันที่ชัดเจนในการใช้เทคโนโลยี AI ขั้นสูงสุดก่อนทำให้เกิดความกังวลเร่งด่วนมากขึ้น

"โชคไม่ดีที่การวางแผนและการจัดการในระดับนี้ไม่ได้เกิดขึ้น แม้ว่าช่วงไม่กี่เดือนที่ผ่านมาจะเห็นว่าแล็บ AI ถูกขังอยู่ในการแข่งขันที่ไม่สามารถควบคุมได้ เพื่อพัฒนาและใช้งานจิตใจดิจิทัลที่ทรงพลังกว่าเดิม ซึ่งไม่มีใคร หรือแม้แต่ผู้สร้างก็ไม่สามารถเข้าใจได้" จดหมายระบุ

จดหมายที่เกี่ยวข้องเผยแพร่โดย Future of Life Institute (FLI) ซึ่งเป็นองค์กรที่อุทิศตนเพื่อลดความเสี่ยงและการใช้เทคโนโลยีใหม่ในทางที่ผิด ก่อนหน้านี้ Musk ได้บริจาคเงิน 10 ล้านดอลลาร์ให้กับ FLI เพื่อใช้ในการศึกษาเกี่ยวกับความปลอดภัยของ AI นอกจากเขาและ Wozniak แล้ว ผู้ลงนามยังรวมถึงผู้นำด้าน AI ระดับโลก เช่น Marc Rotenberg ประธาน Center for AI และนโยบายดิจิทัล นักฟิสิกส์ของ MIT และ Max Tegmark ประธานสถาบัน Future of Life และผู้เขียน Yuval Noah Harari Harari ยังเป็นผู้ร่วมเขียนบทความใน New York Times เมื่อสัปดาห์ที่แล้ว โดยเตือนเกี่ยวกับความเสี่ยงของ AI ร่วมกับผู้ก่อตั้ง Center for Humane Technology และผู้ร่วมลงนาม Tristan Harris และ Aza Raskin

การเรียกร้องนี้ให้ความรู้สึกเหมือนเป็นขั้นตอนต่อไปจากการสำรวจในปี 2022 ของนักวิจัยด้านแมชชีนเลิร์นนิงกว่า 700 คน ซึ่งเกือบครึ่งหนึ่งของผู้เข้าร่วมระบุว่ามีโอกาส 10 เปอร์เซ็นต์ที่จะเกิด "ผลลัพธ์ที่เลวร้ายอย่างยิ่ง" จาก AI รวมถึงการสูญพันธุ์ของมนุษย์ เมื่อถามถึงความปลอดภัยในการวิจัย AI นักวิจัย 68 เปอร์เซ็นต์กล่าวว่าควรทำมากกว่านี้หรือมากกว่านี้


Niponpan Sasidhorn

Tag Cloud
AI
DEV
ELON MUSK
STEVE WOZNIAK

Related Links

  • AI มาถึงแล้ว! บริษัทการแพทย์เริ่มนำเอา AI เข้ามาช่วยในการทดลองพัฒนายาชนิดใหม่ | H3cHub
    AI มาถึงแล้ว! บริษัทการแพทย์เริ่มนำเอา AI เข้ามาช่วยในการทดลองพัฒนายาชนิดใหม่

    Niponpan Sasidhorn3 months ago

    88 VIEWS

  • เอาไปใช้สอน AI ก็ไม่ได้! New York Times ฟ้อง OpenAI และ Microsoft ฐานละเมิดลิขสิทธิ์ | H3cHub
    เอาไปใช้สอน AI ก็ไม่ได้! New York Times ฟ้อง OpenAI และ Microsoft ฐานละเมิดลิขสิทธิ์

    Niponpan Sasidhorn4 months ago

    141 VIEWS

  • เริ่มทดสอบ AI ในการ Gen art สำหรับ Animation อย่างเสถียรเพื่อพัฒนาผลงานและทุ่นเวลามนุษย์! | H3cHub
    เริ่มทดสอบ AI ในการ Gen art สำหรับ Animation อย่างเสถียรเพื่อพัฒนาผลงานและทุ่นเวลามนุษย์!

    Niponpan Sasidhorn5 months ago

    180 VIEWS

  • เดี๋ยวนี้ AI จัดให้หมดครับ! Google เผย Ai สำหรับช่วยเขียนเมลใน Gmail เพื่อช่วยจัดการการส่งเมลให้ง่ายขึ้น | H3cHub
    เดี๋ยวนี้ AI จัดให้หมดครับ! Google เผย Ai สำหรับช่วยเขียนเมลใน Gmail เพื่อช่วยจัดการการส่งเมลให้ง่ายขึ้น

    Niponpan Sasidhorn8 months ago

    234 VIEWS

  • ก้าวต่อไป Google กำลังผลักดันการค้นหาด้วย AI ในอินเดียและญี่ปุ่น | H3cHub
    ก้าวต่อไป Google กำลังผลักดันการค้นหาด้วย AI ในอินเดียและญี่ปุ่น

    Niponpan Sasidhorn8 months ago

    280 VIEWS

  • Social

    Link

    Articles

    application
    sports
    Contact Us
    • Address

      98/3 Soi Inthamara 10, Sutthisan Winitchai Road, Samsen Nai, Phaya Thai, Bangkok 10400

    • Phone

      + 668 1918 3262

    Copyright © 2020 Happy Three Creation co.,ltd. All Rights Reserved.