ChatGPT ไม่ได้เป็นผู้เชี่ยวชาญอีกต่อไป! OpenAI ได้ปรับบทบาทของตัวเอง
OpenAI บริษัทปัญญาประดิษฐ์ เพิ่งปรับปรุงนโยบายเกี่ยวกับแชทบอท ChatGPT โดยห้ามมิให้นำ ChatGPT ไปใช้เพื่อให้คำปรึกษาทางการแพทย์ กฎหมาย และการเงิน ซึ่งจำเป็นต้องมีใบอนุญาตประกอบวิชาชีพ บริษัทย้ำว่าการดำเนินการนี้มีวัตถุประสงค์เพื่อลดความเสี่ยงจากการใช้งานในทางที่ผิดและเพิ่มความปลอดภัยให้กับผู้ใช้ ข่าวนี้ก่อให้เกิดความสนใจและการอภิปรายทั่วโลก อย่างไรก็ตาม OpenAI ได้ชี้แจงในภายหลังว่าผู้ใช้ยังคงสามารถเข้าถึงข้อมูลด้านสุขภาพและกฎหมายได้ตามปกติ อย่างไรก็ตาม ChatGPT จะไม่ทำหน้าที่เป็น "ที่ปรึกษามืออาชีพ" อีกต่อไป แต่จะทำหน้าที่เป็น "เครื่องมือทางการศึกษา" แทน
ตามประกาศอย่างเป็นทางการของ OpenAI ตั้งแต่วันที่ 29 ตุลาคม 2568 เป็นต้นไป ChatGPT จะถูกห้ามไม่ให้ใช้เพื่อการให้คำปรึกษาอย่างมืออาชีพในสาขาการแพทย์ กฎหมาย และการเงิน รวมถึง "การตัดสินใจที่มีความเสี่ยงสูงโดยไม่มีการควบคุมดูแลโดยมนุษย์" การประมวลผลการจดจำใบหน้าหรือข้อมูลชีวภาพ การฉ้อโกงทางวิชาการ หรือวัตถุประสงค์อื่นๆ ที่มีความละเอียดอ่อนสูง OpenAI ระบุว่าการปรับปรุงนโยบายนี้มีวัตถุประสงค์เพื่อปรับปรุงความโปร่งใสและความปลอดภัยของการใช้งานโมเดล และเสริมสร้างการบริหารความเสี่ยงของบริษัท
การวิเคราะห์ของ Financial Express ชี้ให้เห็นว่าความเคลื่อนไหวนี้อาจเกี่ยวข้องกับความรับผิดทางกฎหมายและแรงกดดันด้านกฎระเบียบ ในช่วงไม่กี่ปีที่ผ่านมา ผู้ใช้จำนวนมากได้ใช้ AI เพื่อค้นหาอาการของโรค ข้อพิพาททางกฎหมาย หรือคำแนะนำด้านการลงทุน หากแบบจำลองให้ข้อมูลที่ไม่ถูกต้อง อาจนำไปสู่การวินิจฉัยผิดพลาด ความเสี่ยงทางกฎหมาย หรือความสูญเสียทางการเงิน ดังนั้น OpenAI จึงตัดสินใจที่จะกำหนดเส้นแบ่งที่ชัดเจนระหว่างความรับผิดชอบทางวิชาชีพและบทบาทของ AI
อย่างไรก็ตาม Business Insider ชี้ให้เห็นว่ามีความเข้าใจผิดเกี่ยวกับนโยบายนี้ รายงานระบุว่ามีผู้ใช้รายหนึ่งบนแพลตฟอร์มโซเชียลมีเดีย X โพสต์ว่า "ChatGPT จะหยุดให้คำแนะนำด้านสุขภาพโดยสมบูรณ์" ซึ่งก่อให้เกิดความคิดเห็นและความกังวลมากมาย ผู้ใช้บางรายถึงกับพูดติดตลกว่า "งั้นฉันก็ไร้ประโยชน์" โฆษกของ OpenAI ชี้แจงว่า "นี่ไม่ใช่การเปลี่ยนแปลงใหม่ ChatGPT ไม่เคยถูกมองว่าเป็นที่ปรึกษากฎหมายหรือการแพทย์มืออาชีพ แต่ยังคงเป็นเครื่องมือที่ยอดเยี่ยมในการช่วยให้สาธารณชนเข้าใจข้อมูลด้านสุขภาพและกฎหมาย"
การัน ซิงฮาล หัวหน้าฝ่ายวิจัย AI ด้านสุขภาพของ OpenAI ระบุบนแพลตฟอร์ม X ว่าพฤติกรรมของโมเดลยังคงไม่เปลี่ยนแปลง บริษัทเน้นย้ำว่านโยบายนี้เน้นย้ำความแตกต่างระหว่าง "ข้อมูลทางการแพทย์" และ "คำแนะนำทางการแพทย์" เป็นหลัก ยกตัวอย่างเช่น ChatGPT ยังคงสามารถให้ข้อมูลที่เข้าใจง่าย เช่น การพักผ่อน การดื่มน้ำปริมาณมาก หรือการใช้ยาลดไข้ทั่วไปเมื่อเป็นหวัดได้ แต่จะไม่สามารถวินิจฉัยสาเหตุของโรคหรือสั่งจ่ายยาได้
ยิ่งไปกว่านั้น OpenAI ยังเตือนด้วยว่าการโต้ตอบระหว่างผู้ใช้และ ChatGPT ไม่ได้รับสิทธิ์การรักษาความลับเช่นเดียวกับการโต้ตอบระหว่างแพทย์/ผู้ป่วย หรือทนายความ/ลูกความ และข้อมูลที่เกี่ยวข้องอาจยังคงสามารถเข้าถึงได้โดยหน่วยงานตุลาการภายใต้สถานการณ์บางอย่าง คำเตือนนี้สะท้อนถึงการที่ OpenAI ได้บังคับใช้ข้อจำกัดด้านความปลอดภัยหลายประการเมื่อเร็วๆ นี้ในด้านสุขภาพจิตและความอ่อนไหวทางอารมณ์ เพื่อป้องกันไม่ให้แบบจำลองประเมินสถานะของผู้ใช้ผิดพลาด
หนุ่มไปทอดแหหาปลาและพบ "ทองโบราณ" ก่อนนำไปให้ช่างนะโมหลอมพิสูจน์มูลค่า
5 อันดับประเทศที่ผลิตเบียร์มากที่สุดในโลก
กาปิตัน : แมวใหญ่ใจดีผู้เป็นเสมือนแสงสว่างนำทางให้เเมวตาบอด
5 จังหวัดที่เจริญที่สุดของภาคเหนือในประเทศไทย
นี่คือเซเว่นหรือตู้คอนเทนเนอร์? บุกสาขาที่เล็กที่สุดในประเทศไทย
"ผมก็แค่คนธรรมดา" หนุ่ม กะลา เคลื่อนไหวแล้ว! หลังดราม่าถูกโห่กลางคอนเสิร์ตใหญ่ G27
“เธอเรียน” (Therian) คนที่ระบุตัวเองว่าเป็นสัตว์
ความชาญฉลาดในการพรางตัวของจระเข้ในธรรมชาติ
เจาะเลขเด็ดธูปพยากรณ์ เจ๊ฟองเบียร์ งวดประจำวันที่ 1 มีนาคม 2569
เลขเด็ดปฏิทิน "หลวงพ่อรวย" งวดวันที่ 1 มีนาคม 69..เลขเด่นมาแรง รีบส่องเลย!
"บวบ" ผักพื้นบ้านราคาประหยัด แต่สรรพคุณระดับซูเปอร์ฟู้ดที่ต่างชาติยังทึ่ง!
ธนาคารเขมรเจ๊งอีกแล้ว!!"
ธนาคารเขมรเจ๊งอีกแล้ว!!"
รัฐบาลอินเดียเริ่มทำการศึกษาเพื่อหาความเป็นไปได้ในการแบนโซเชียล ป้องกันเยาวชนอายุต่ำกว่า 16 ปี ใช้งาน
Google เตือน กว่า 40% ของอุปกรณ์ Android ทั้งหมดมีความเสี่ยงสูงต่อการติดมัลแวร์
ผู้คนต่างคลั่งไคล้ผลไม้เนื้อสีชมพูรสชาติหวาน
เด็กจีนปากเกือบแหก หลังอมประทัด เพราะคิดว่าเป็นลูกอม