การ์ทเนอร์ เปิดเหตุผลที่ ChatGPT สั่นสะเทือนโลก AI
การ์ทเนอร์ อิงค์ บริษัทวิจัยข้อมูลด้านการตลาดและเทคโนโลยี เปิดเผยมุมมองต่อ ChatGPT ปัญญาประดิษฐ์เชิงกำเนิดที่อาจเปลี่ยนโลกสิ้นเชิง
ไม่นานมานี้ OpenAI บริษัทวิจัยและพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้เปิดตัว ChatGPT แพลตฟอร์มสนทนา AI รูปแบบใหม่อย่างเป็นทางการ จากข้อมูลของบริษัทฯ ระบุว่ารูปแบบการสนทนาที่จัดทำโดยแพลตฟอร์มนี้ทำให้ ChatGPT สามารถ “ตอบคำถามได้ครอบคลุม ยอมรับข้อผิดพลาด พร้อมนำเสนอข้อมูลใหม่ ๆ เพื่อปรับเปลี่ยนข้อมูลที่ไม่ถูกต้อง และปฏิเสธคำร้องขอที่ไม่สมเหตุสมผล”
นับตั้งแต่ ChatGPT เปิดให้บริการ บนโลกโซเชียลมีเดียก็มีการถกเถียงกันถึงความเป็นไปได้ในการนำนวัตกรรมนี้มาปรับใช้รวมถึงอันตรายที่อาจตามมา เนื่องจากความสามารถในการวิเคราะห์หาข้อผิดพลาดของโค้ด (Debug Code) ไปจนถึงศักยภาพในการเขียนเรียงความสำหรับนักศึกษา
เพราะอะไร ChatGPT ถึงได้รับความสนใจเป็นอย่างมาก?
ChatGPT เป็นปรากฎการณ์ Perfect Storm ที่เป็นการรวมกันของปัญญาประดิษฐ์ (AI) สองเรื่องใหญ่ ๆ ที่กำลังมาแรงในปัจจุบัน นั่นคือแชทบอท และ GPT3 ที่นำเสนอวิธีการสื่อสารโต้ตอบพร้อมสร้างเนื้อหาที่น่าสนใจ เสมือนการพูดคุยกับมนุษย์ได้อย่างน่าอัศจรรย์ ซึ่งเป็นผลมาจากการพัฒนาเทคโนโลยีที่เกี่ยวข้องสำคัญในช่วงห้าปีที่ผ่านมา
แชทบอทสร้างปฏิสัมพันธ์การสนทนาแบบ 'ชาญฉลาด' ขณะที่ GPT3 สร้างเอาต์พุทที่ดู 'เข้าใจ' คำถาม เนื้อหา และบริบทของการสนทนา ซึ่งเมื่อสองสิ่งนี้รวมกันได้สร้างผลกระทบใหญ่จนเกิดคำถามว่า 'เรากำลังสนทนากับมนุษย์หรือคอมพิวเตอร์กันแน่หรือว่าเป็นคอมพิวเตอร์ที่เหมือนกับมนุษย์’ ซึ่งการโต้ตอบบางครั้งสร้างความขบขัน บ้างนำเสนอข้อมูลลึกซึ้งและบางทีก็เต็มไปด้วยสาระความรู้
แต่น่าเสียดายที่บางครั้ง ChatGPT ยังนำเสนอเนื้อหาได้ไม่ถูกต้องและไม่ได้อยู่บนพื้นฐานความเข้าใจหรือสติปัญญาของมนุษย์ ปัญหาอาจอยู่ที่คำว่า 'เข้าใจ' และ 'ความฉลาด' ซึ่งขึ้นอยู่กับการป้อนข้อมูลของมนุษย์ที่อาจมีความหมายคลุมเครือไม่ชัดเจน ดังนั้นเมื่อนำไปใช้กับอัลกอริธึม อาจส่งผลให้เกิดความเข้าใจผิดอย่างรุนแรง
ในมุมที่มีประโยชน์กว่าคือการได้เห็นว่าแชทบอทและโมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT ได้กลายเป็นเครื่องมือที่มีคุณค่าสำหรับการทำงานเฉพาะอย่างให้สำเร็จลุล่วงได้ ที่ไม่ใช่เพื่อความบันเทิง โดยความสำเร็จจะเกิดขึ้นหรือไม่นั้นขึ้นอยู่กับการนำเทคโนโลยีเหล่านี้ไปใช้ในแอปพลิเคชันที่เหมาะสมและมอบประโยชน์ต่อองค์กรอย่างแท้จริง
ข้อกังวลด้านจริยธรรม
โมเดลแบบจำลองพื้นฐาน AI เช่น GPT แสดงให้เห็นถึงการเปลี่ยนแปลงครั้งใหญ่ด้าน AI จากประโยชน์เฉพาะตัวที่มอบให้ อาทิ การช่วยลดต้นทุนและระยะเวลาสร้างโมเดลแบบจำลองเฉพาะโดเมน
อย่างไรก็ตามสิ่งเหล่านี้ก่อให้เกิดความเสี่ยงและข้อกังวลด้านจริยธรรม ซึ่งประกอบด้วย
Complexity: โมเดลจำลองขนาดใหญ่ต้องใช้พารามิเตอร์นับพันล้านหรืออาจมากถึงล้านล้าน โดยโมเดลจำลองเหล่านี้มีขนาดใหญ่เกินไปที่องค์กรจะนำมาทดสอบใช้งาน เนื่องจากต้องใช้ทรัพยากรการประมวลผลที่จำเป็นจำนวนมาก อาจทำให้มีราคาแพงและไม่เป็นมิตรต่อสิ่งแวดล้อม
Concentration of power: โมเดลจำลองเหล่านี้ส่วนใหญ่สร้างขึ้นโดยบริษัทเทคโนโลยีที่ใหญ่ที่สุด ด้วยการลงทุนกับการวิจัยและพัฒนาจำนวนมหาศาล และมีความสามารถด้าน AI เป็นสำคัญ ซึ่งสิ่งเหล่านี้ส่งผลให้เกิดการกระจุกตัวของอำนาจในหน่วยงานขนาดใหญ่ไม่กี่แห่ง อาจสร้างความไม่สมดุลในอนาคต
Potential misuse: โมเดลจำลองพื้นฐานช่วยลดต้นทุนในการสร้างเนื้อหา ซึ่งหมายความว่าการสร้าง Deepfake ที่ใกล้เคียงกับต้นฉบับจะง่ายขึ้น รวมถึงทุก ๆ อย่าง ตั้งแต่การเลียนแบบเสียงและวิดีโอไปจนถึงผลงานศิลปะปลอม ตลอดจนการโจมตีแบบกำหนดเป้าหมาย ซึ่งข้อกังวลด้านจริยธรรมร้ายแรงที่เกี่ยวข้องอาจทำให้เสียชื่อเสียงหรือสร้างความขัดแย้งทางการเมืองได้
Black-box
nature: โมเดลจำลองเหล่านี้ยังต้องการการทดสอบอย่างถี่ถ้วนและสามารถมอบผลลัพธ์ที่ไม่น่าพอใจ
เนื่องจากการทดสอบในลักษณะกล่องดำ (Black-box nature) ที่ไม่คำนึงถึงคำสั่งภายในซอฟต์แวร์
และคลุมเครือว่าฐานข้อมูลที่ตอบสนองนั้นเท็จจริงเพียงใด
อาจนำเสนอผลลัพธ์ที่เอนเอียงได้จากข้อมูลที่กำหนดไว้
โดยกระบวนการทำให้ข้อมูลตรงกันของแบบจำลองดังกล่าวสามารถนำไปสู่ความล้มเหลวได้
หากคลาดเคลื่อนเพียงจุดเดียว
property: โมเดลแบบจำลองถูกทดสอบกับคลังข้อมูลของชิ้นงานที่สร้างขึ้น และยังไม่ชัดเจนว่าจะมีกฎหมายบังคับอย่างไรสำหรับการนำเนื้อหานี้กลับมาใช้ใหม่ และหากเนื้อหานั้นมาจากทรัพย์สินทางปัญญาของผู้อื่น
-rs.jpg)
ความคิดเห็น
แสดงความคิดเห็น