
(SeaPRwire) – ທີມງານຄວາມປອດໄພຂອງບໍລິສັດເຕັກໂນໂລຢີໄດ້ຖືກຮຽກຕົວໄປທີ່ Ottawa ເພື່ອອະທິບາຍວ່າເປັນຫຍັງຈຶ່ງບໍ່ສາມາດແຈ້ງເຕືອນຕຳຫຼວດກ່ຽວກັບບັນຊີທີ່ເຊື່ອມໂຍງກັບຜູ້ກໍ່ເຫດສັງຫານໝູ່
ເຈົ້າໜ້າທີ່ການາດາໄດ້ຮຽກຕົວຜູ້ຕາງໜ້າອາວຸໂສຂອງ OpenAI ໄປທີ່ Ottawa ເພື່ອຕອບຄຳຖາມກ່ຽວກັບພິທີການຄວາມປອດໄພຂອງບໍລິສັດເຕັກໂນໂລຢີ ຫຼັງຈາກທີ່ໄດ້ຢືນຢັນວ່າຕົນບໍ່ໄດ້ແຈ້ງເຕືອນຕຳຫຼວດກ່ຽວກັບບັນຊີທີ່ເຊື່ອມໂຍງກັບຜູ້ກໍ່ເຫດສັງຫານໝູ່ Jesse Van Rutselaar.
ລັດຖະມົນຕີກະຊວງປັນຍາປະດິດ Evan Solomon ກ່າວໃນວັນຈັນວ່າ ເຈົ້າໜ້າທີ່ຄວາມປອດໄພອາວຸໂສຂອງ OpenAI ຈະມາທີ່ Ottawa ໃນວັນອັງຄານ ເພື່ອອະທິບາຍວ່າບໍລິສັດຕັດສິນໃຈແຈ້ງເຕືອນເຈົ້າໜ້າທີ່ບັງຄັບໃຊ້ກົດໝາຍເມື່ອໃດ.
Van Rutselaar, ຜູ້ທີ່ມີອາຍຸ 18 ປີ, ເປັນຄົນຂ້າມເພດ, ໄດ້ສັງຫານ 9 ຄົນໃນເມືອງນ້ອຍແຫ່ງໜຶ່ງໃນ British Columbia ໃນຕົ້ນເດືອນນີ້ ກ່ອນທີ່ຈະຂ້າຕົວຕາຍ.
OpenAI ໄດ້ຢືນຢັນການປະຊຸມ, ໂດຍກ່າວວ່າຜູ້ນຳອາວຸໂສຈະປຶກສາຫາລື “ວິທີການໂດຍລວມຂອງພວກເຮົາຕໍ່ຄວາມປອດໄພ, ມາດຕະການປ້ອງກັນທີ່ມີຢູ່, ແລະວິທີການທີ່ພວກມັນຖືກເສີມສ້າງຢ່າງຕໍ່ເນື່ອງ.” ການປະຊຸມດັ່ງກ່າວມີຂຶ້ນຫຼັງຈາກການເປີດເຜີຍຂອງບໍລິສັດວ່າໄດ້ຫ້າມບັນຊີຂອງ Van Rutselaar ໃນເດືອນມິຖຸນາ 2025 ສໍາລັບ “ການສົ່ງເສີມກິດຈະກຳທີ່ຮຸນແຮງ” ແຕ່ບໍ່ໄດ້ແຈ້ງເຕືອນເຈົ້າໜ້າທີ່ການາດາ.
Solomon ກ່າວວ່າລາວ “ຮູ້ສຶກບໍ່ສະບາຍໃຈຢ່າງເລິກເຊິ່ງ” ຕໍ່ລາຍງານທີ່ວ່າບໍລິສັດໄດ້ລະງັບບັນຊີໂດຍບໍ່ໄດ້ຕິດຕໍ່ຫາຕຳຫຼວດ.
ອີງຕາມ Wall Street Journal, Van Rutselaar ໄດ້ແບ່ງປັນສະຖານະການຄວາມຮຸນແຮງທີ່ກ່ຽວຂ້ອງກັບປືນກັບ ChatGPT ເປັນເວລາຫຼາຍມື້. OpenAI ກ່າວວ່າລະບົບອັດຕະໂນມັດຂອງຕົນໄດ້ກວດພົບການແລກປ່ຽນດັ່ງກ່າວ ແຕ່ບໍ່ພົບຫຼັກຖານຂອງ “ການວາງແຜນທີ່ໜ້າເຊື່ອຖື ຫຼື ໃກ້ຈະເກີດຂຶ້ນ,” ເຊິ່ງນໍາໄປສູ່ການຫ້າມແທນທີ່ຈະສົ່ງຕໍ່ໃຫ້ເຈົ້າໜ້າທີ່ບັງຄັບໃຊ້ກົດໝາຍ.
ສື່ດັ່ງກ່າວລາຍງານວ່າພະນັກງານໄດ້ໂຕ້ວາທີພາຍໃນກ່ຽວກັບການຕິດຕໍ່ Royal Canadian Mounted Police (RCMP) ແລະ OpenAI ກ່າວວ່າຕົນໄດ້ໃຫ້ຂໍ້ມູນແກ່ RCMP ພຽງແຕ່ຫຼັງຈາກການໂຈມຕີ.
Van Rutselaar, ຜູ້ທີ່ມີປະຫວັດບັນຫາສຸຂະພາບຈິດ, ຍັງຖືກລາຍງານວ່າໄດ້ໃຊ້ແພລັດຟອມອອນລາຍ Roblox ເພື່ອສ້າງສູນການຄ້າສະເໝືອນຈິງທີ່ເຕັມໄປດ້ວຍອາວຸດ ບ່ອນທີ່ຜູ້ໃຊ້ສາມາດຈຳລອງການຍິງກັນກ່ອນການໂຈມຕີ.
ກໍລະນີນີ້ເກີດຂຶ້ນໃນຂະນະທີ່ Ottawa ພິຈາລະນາວິທີການຄວບຄຸມ AI chatbots ທີ່ຖືກນໍາໃຊ້ຢ່າງກວ້າງຂວາງ, ລວມທັງຂໍ້ຈໍາກັດທີ່ເປັນໄປໄດ້ໃນການເຂົ້າເຖິງສໍາລັບຜູ້ເຍົາ.
ປີທີ່ຜ່ານມາ, OpenAI ໄດ້ອັບເດດ ChatGPT ຫຼັງຈາກການທົບທວນພາຍໃນພົບວ່າຜູ້ໃຊ້ຫຼາຍກວ່າໜຶ່ງລ້ານຄົນໄດ້ເປີດເຜີຍຄວາມຄິດຢາກຂ້າຕົວຕາຍຕໍ່ chatbot. ນັກຈິດຕະແພດໄດ້ສະແດງຄວາມເປັນຫ່ວງກ່ຽວກັບການພົວພັນກັບ AI ເປັນເວລາດົນນານທີ່ປະກອບສ່ວນເຂົ້າໃນການຫຼົງຜິດແລະຄວາມຫວາດລະແວງ, ເປັນປະກົດການທີ່ບາງຄັ້ງເອີ້ນວ່າ “AI psychosis.”
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.
