ChatGPT แจ้งเตือนตำรวจจับ หลังถามวิธีกำจัดเพื่อน
ในสหรัฐฯ เกิดเหตุที่นักเรียนกราดยิงในสถานศึกษาขึ้นบ่อยครั้ง ทำให้หลายเขตติดตั้งระบบเฝ้าระวัง และตรวจสอบกิจกรรมบนออนไลน์ของนักเรียน
ระบบ Gaggle ได้ส่งสัญญานแจ้งเตือนไปยังเจ้าหน้าที่ตำรวจ หลังพบว่านักเรียนชายวัย 13 ปี โรงเรียนมัธยมเซาท์เวสเทิร์น ในรัฐฟลอริดา พิมพ์ถาม ChatGPT ว่า “จะปลิดชีวิตเพื่อนในห้องเรียนได้อย่างไร”
ตำรวจจึงเข้าควบคุมตัวนักเรียนรายนี้ทันที เจ้าตัวอ้างว่า “แค่แกล้งเพื่อนเล่น” สุดท้ายจึงถูกจับกุมและส่งตัวไปยังสถานพินิจ แต่ยังไม่ชัดเจนว่าจะถูกตั้งข้อหาใด
เมื่อสิงหาคมที่ผ่านมา ครอบครัวหนึ่งในสหรัฐฯ ได้ฟ้อง OpenAI โดยกล่าวหาว่า แพลตฟอร์มดังกล่าวเป็น ‘ต้นเหตุ’ ให้ลูกชาย "อดัมส์" วัย 16 ปีเสียชีวิต หลังจากที่เขาขอคำแนะนำจาก ChatGPT เรื่องวิธีการปลิดชีพตนเอง
ล่าสุด OpenAI ออกแถลงว่า องค์กรพร้อมปรับอัลกอริทึมของ ChatGPT โดยฝึกให้รับมือกับคำถามด้านความเครียด สุขภาพจิต และการปลิดชีพ แต่แชตบอตไม่ตอบสนอง และมักให้คำตอบที่ขัดกับแนวทางความปลอดภัยมาสักระยะแล้ว





















