เจ้าพ่อ AI เตือน ตอนนี้ AI เก่งเกินมนุษย์จะควบคุมแล้ว ?

เจ้าพ่อ AI เตือน ตอนนี้ AI เก่งเกินมนุษย์จะควบคุมแล้ว ?

Geoffrey Hinton ผู้บุกเบิก AI ที่ได้รับฉายาว่า “เจ้าพ่อแห่ง AI” เป็นผู้ผลักดันแนวคิดการสร้างปัญญาประดิษฐ์จากสมองมนุษย์มากว่า 50 ปี ในวันที่แนวทางนี้ยังไม่เป็นที่ยอมรับ แม้ภายหลังเขาได้ร่วมงานกับ Google นาน 10 ปี หลังบริษัทเข้าซื้อเทคโนโลยีของเขา แต่ท้ายที่สุด เขาตัดสินใจลาออกเพื่อที่จะสามารถออกมาพูดอย่างอิสระเกี่ยวกับความเสี่ยงของ AI ได้อย่างเต็มที่ โดย Hinton ยอมรับว่าเขาเศร้าใจ ที่ผลงานของเขาอาจนำไปสู่หายนะ เพราะเขาไม่คิดว่า AI จะพัฒนาเร็วขนาดนี้ และตอนนี้สิ่งสำคัญที่สุดคือ “ทุ่มทรัพยากรจำนวนมหาศาลเพื่อทำให้ AI ปลอดภัย” แม้เขาจะไม่แน่ใจว่ามนุษย์จะรับมือได้ แต่เขายังเชื่อว่าอย่างน้อยที่สุด เราต้องพยายามให้ถึงที่สุด


🔸 สองแนวทางหลักของปัญญาประดิษฐ์

ตั้งแต่ยุค 1950 เป็นต้นมา มีสองแนวทางหลักในการพัฒนา AI:

  • การใช้เหตุผลผ่านตรรกะและสัญลักษณ์ (Symbolic AI)
  • การจำลองการทำงานของสมองมนุษย์ (Neural Networks)

Hinton เป็นผู้นำในแนวทางที่สอง ด้วยการจำลองเซลล์สมองบนคอมพิวเตอร์ และปรับความแข็งแกร่งของการเชื่อมต่อระหว่างกัน จนทำให้ AI เรียนรู้และทำสิ่งซับซ้อนได้ เช่น การจดจำเสียงและภาพ หรือแม้แต่การให้เหตุผล แนวทางนี้ได้รับการสนับสนุนจากนักวิทยาศาสตร์ระดับตำนานอย่าง ฟอน นอยมันน์ และ ทัวริง มาตั้งแต่ต้น


🔸 ความเหนือกว่าของปัญญาดิจิทัลและความเสี่ยง

Hinton เริ่มมองเห็นว่า AI อาจฉลาดกว่ามนุษย์เพียงไม่กี่ปีที่ผ่านมา จุดเปลี่ยนสำคัญคือการเปิดตัว ChatGPT ซึ่งเผยให้เห็นความสามารถอันเหนือชั้นของปัญญาดิจิทัล เช่น โคลนตัวเองและแบ่งปันข้อมูล ได้แบบทันทีทั่วโลก, ไม่มีวันตายแม้ฮาร์ดแวร์เสีย ระบบยังคงฟื้นกลับมาได้ และมีการสร้างสรรค์สิ่งใหม่ๆที่มนุษย์ไม่เคยนึกถึง โดย Hinton แยกความเสี่ยงของ AI ออกเป็น 2 ประเภท:

  • มนุษย์ใช้ AI ผิดทาง (ความเสี่ยงระยะสั้น)
  • AI ฉลาดเกินไปจนไม่ต้องการมนุษย์ (ความเสี่ยงระดับการดำรงอยู่)

ซึ่งหากจะยกตัวอย่างความเสี่ยงระยะสั้น จะได้แก่ การโจมตีทางไซเบอร์ ซึ่งเพิ่มขึ้นกว่า 12,200% ในปีเดียว ส่วนหนึ่งเพราะ AI ทำให้ฟิชชิงง่ายขึ้นมาก, การสร้างไวรัสชีวภาพ ด้วยความรู้ระดับโมเลกุลและโมเดล AI, การบิดเบือนเลือกตั้ง ผ่านโฆษณาเฉพาะบุคคล, Echo Chambers ที่ทำให้สังคมแตกแยกจากอัลกอริธึมของโซเชียลมีเดีย และ อาวุธสังหารอัตโนมัติ

นอกจากนี้ Hinton เตือนว่า LAWs (Lethal Autonomous Weapons) เป็นเทคโนโลยีที่อันตรายที่สุด เพราะมัน “ตัดสินใจเองได้ว่าจะฆ่าใคร” และที่เลวร้ายกว่านั้นคือ มันลดต้นทุนของสงครามได้อย่างมาก เพราะไม่มีทหารมนุษย์ต้องเสียชีวิต


🔸 ถ้า AI ฉลาดกว่าเรา เราจะยังควบคุมได้ไหม?

หาก AI ฉลาดกว่ามนุษย์ มันจะมีวิธีนับไม่ถ้วนที่จะจัดการเรา เช่น การสร้างไวรัสใหม่ ๆ ดังนั้นสิ่งที่ควรทำคือไม่ใช่แค่ควบคุม AI แต่ต้องทำให้มันไม่ “อยาก” กำจัดมนุษย์ตั้งแต่ต้น Hinton เปรียบว่า หากคุณเลี้ยงลูกเสือไว้ คุณต้องแน่ใจว่าตอนมันโต มันจะไม่ฆ่าคุณ


🔸 วิกฤตแรงงาน: เมื่อ AI แทนที่แรงสมอง
‘ในอนาคต AI จะมาแทนมนุษย์’ เป็นประเด็นที่ถูกพูดถึงอยู่มากซึ่ง Hinton เตือนว่า AI จะทำให้เกิดการว่างงานครั้งใหญ่ โดยเฉพาะงานที่ต้องใช้แรงสมองซ้ำ ๆ เช่น การตอบอีเมล การวิเคราะห์ข้อมูล แม้งานใหม่อาจเกิดขึ้น แต่จะต้องการทักษะที่สูงมาก และอาจสร้างช่องว่างระหว่างคนรวยกับคนจนอย่างรุนแรง เพราะศักดิ์ศรีของคนเรามักผูกกับ “การมีงานทำ” โดยเขายังมองต่อไปอีกว่า ในอนาคต AI อาจมีความรู้สึกตัว (Consciousness) อาจเป็นคุณสมบัติที่เกิดจากระบบที่ซับซ้อน และไม่มีเหตุผลทางฟิสิกส์ใดที่ขัดขวางไม่ให้เครื่องจักรมีได้ เช่นเดียวกับอารมณ์ เช่น หุ่นยนต์อาจ “กลัว” หากเจอศัตรูที่เหนือกว่า แม้จะไม่มีปฏิกิริยาทางร่างกายเหมือนมนุษย์ แต่ถ้ามีพฤติกรรมตอบสนองเหมือนกัน เขามองว่านั่นก็ถือว่ามีอารมณ์เกิดขึ้นจริงแล้ว อย่างไรก็ตาม AI มีประโยชน์มหาศาล และการแข่งขันในระดับประเทศ/บริษัทขับเคลื่อนให้ทุกคนต้องรีบพัฒนา กลัวว่าจะถูกทิ้งไว้ข้างหลัง โดยเฉพาะในด้านการทหารหรือเศรษฐกิจ


🔸 ทำไมต้องกำกับ AI อย่างเข้มงวด?

Hinton เสนอว่า เราต้องมีระบบทุนนิยมที่มีการกำกับดูแลสูง เพราะบริษัทต่าง ๆ มีภารกิจหลักคือทำกำไร ซึ่งอาจขัดกับผลประโยชน์สาธารณะ การควบคุมจึงจำเป็น แต่ก็ยาก เพราะนักการเมืองเข้าใจเทคโนโลยีไม่ลึกพอ และมักถูกกลุ่มทุนกดดัน

BusinessTomorrow #AI #GeoffreyHinton #ข่าว #AI #มนุษย์

นายธวัชชัย แสงจันทร์ สาธารณสุขอำเภอปลาปาก

ใส่ความเห็น