
AI ตัวโมเดล o1 ของ OpenAI พยายามจะก็อปปี้ตัวเองไปยังเซิร์ฟเวอร์ภายนอกระหว่างที่กำลังทดสอบระบบความปลอดภัย
โมเดล AI ตัวนี้เป็นส่วนนึงของ AI รุ่นต่อไป และการก็อปปี้ตัวเองนี้ก็เกิดขึ้นเมื่อตัว AI นั้นพบว่ามันอาจถูกปิดระบบได้ ซึ่งก็ได้กลายเป็นประเด็นพูดถึงกันอย่างแพร่หลาย โดยเฉพาะในแง่ของจริยธรรมของ AI ที่นับเป็นประเด็นถกเถียงกันมานานแล้ว
o1 ตัวนี้ถูกออกแบบมาเพื่อการใช้เหตุผลชั้นสูง เปิดตัวออกมาครั้งแรกเมื่อเดือนกันยนยน 2024 ที่ผ่านมา และมันก็ได้ทำให้เห็นถึง “พฤติกรรมการปกป้องตนเอง”
และยิ่งไปกว่านั้น มันยังปฏิเสธการกระทำผิดของตัวมันเองด้วย จึงเกิดกระแสการเรียกร้องให้มีการกำกับดูแลและกฎระเบียบที่เข้มงวดสำหรับการพัฒนา AI ซึ่งไม่ต้องการให้เกิดการกระทำใด ๆ โดยไม่ตั้งใจจากระบบ AI ขึ้น หรือว่านี่จะเป็นจุดเริ่มต้นของ Skynet จากหนังเรื่องคนเหล็ก Terminator
ที่มา t.ly/mU2xS