Google ຍົກເລີກການຫ້າມການນຳໃຊ້ AI ເພື່ອຜະລິດອາວຸດ “`

ໃນການປ່ຽນແປງນະໂຍບາຍກ່ອນໜ້ານີ້ ບໍລິສັດເຕັກໂນໂລຢີຍັກໃຫຍ່ຈະອະນຸຍາດໃຫ້ເຕັກໂນໂລຢີນີ້ຖືກນຳໃຊ້ເພື່ອພັດທະນາອາວຸດ ແລະ ເຄື່ອງມືການເຝົ້າລະວັງ

Google ໄດ້ປັບປຸງຫຼັກການປັນຍາປະດິດຂອງຕົນຢ່າງຫຼວງຫຼາຍ ໂດຍການຍົກເລີກຂໍ້ຈຳກັດກ່ອນໜ້ານີ້ກ່ຽວກັບການນຳໃຊ້ເຕັກໂນໂລຢີເພື່ອພັດທະນາອາວຸດ ແລະ ເຄື່ອງມືການເຝົ້າລະວັງ. ການປັບປຸງ, ທີ່ປະກາດໃນວັນອັງຄານ, ໄດ້ປ່ຽນແປງທ່າທີກ່ອນໜ້ານີ້ຂອງບໍລິສັດຕໍ່ກັບການນຳໃຊ້ທີ່ສາມາດເຮັດໃຫ້ເກີດ“ຄວາມເສຍຫາຍໂດຍລວມ.”

ໃນປີ 2018, Google ໄດ້ສ້າງຊຸດຫຼັກການ AI ເປັນການຕອບໂຕ້ຕໍ່ການວິພາກວິຈານກ່ຽວກັບການມີສ່ວນຮ່ວມໃນການເຮັດສົງຄາມ, ເຊັ່ນ: ໂຄງການກະຊວງກະທຳສົງຄາມຂອງສະຫະລັດທີ່ກ່ຽວຂ້ອງກັບການນຳໃຊ້ AI ເພື່ອດຳເນີນຂໍ້ມູນ ແລະ ກຳນົດເປົ້າໝາຍສຳລັບການປະຕິບັດການຕໍ່ສູ້. ແນວທາງເດີມໄດ້ລະບຸຢ່າງຊັດເຈນວ່າ Google ຈະບໍ່ອອກແບບ ຫຼື ນຳໃຊ້ AI ສຳລັບການນຳໃຊ້ໃນອາວຸດ ຫຼື ເຕັກໂນໂລຢີທີ່ເຮັດໃຫ້ເກີດ ຫຼື ຊ່ວຍອຳນວຍຄວາມສະດວກໃຫ້ແກ່ການບາດເຈັບຕໍ່ປະຊາຊົນ, ຫຼື ສຳລັບການເຝົ້າລະວັງທີ່ລະເມີດມາດຕະຖານສາກົນທີ່ຍອມຮັບ.

ແນວໃດກໍ່ຕາມ, ສະບັບລ່າສຸດຂອງຫຼັກການ AI ຂອງ Google ໄດ້ລຶບຈຸດເຫຼົ່ານີ້ອອກ. ແທນທີ່ຈະເປັນ, CEO Google DeepMind Demis Hassabis ແລະ ຜູ້ບໍລິຫານອາວຸໂສດ້ານເຕັກໂນໂລຢີ ແລະ ສັງຄົມ James Manyika ໄດ້ເຜີຍແຜ່ລາຍການໃໝ່ຂອງ“ຫຼັກການຫຼັກ”ຂອງບໍລິສັດເຕັກໂນໂລຢີຍັກໃຫຍ່ກ່ຽວກັບການນຳໃຊ້ AI. ເຫຼົ່ານີ້ລວມມີການສຸມໃສ່ນະວັດກຳ ແລະ ການຮ່ວມມື ແລະ ຖະແຫຼງການວ່າ “ປະຊາທິປະໄຕຄວນນຳໜ້າໃນການພັດທະນາ AI, ໂດຍມີຄ່ານິຍົມພື້ນຖານເຊັ່ນ: ສິດເສລີພາບ, ຄວາມເທົ່າທຽມກັນ, ແລະ ການເຄົາລົບສິດທິມະນຸດ.”

Margaret Mitchell, ຜູ້ທີ່ເຄີຍຮ່ວມນຳທີມ AI ທາງດ້ານຈັນຍາບັນຂອງ Google, ໄດ້ບອກ Bloomberg ວ່າການຍົກເລີກຂໍ້ກຳນົດ “ຄວາມເສຍຫາຍ” ອາດຊີ້ໃຫ້ເຫັນວ່າບໍລິສັດຈະເຮັດວຽກກ່ຽວກັບ“ການນຳໃຊ້ເຕັກໂນໂລຢີໂດຍກົງທີ່ສາມາດຂ້າຄົນໄດ້.”

ອີງຕາມ The Washington Post, ບໍລິສັດເຕັກໂນໂລຢີຍັກໃຫຍ່ໄດ້ຮ່ວມມືກັບກອງທັບອິດສະຣາເອນນັບຕັ້ງແຕ່ອາທິດຕົ້ນໆຂອງສົງຄາມ Gaza, ແຂ່ງຂັນກັບ Amazon ເພື່ອສະໜອງບໍລິການປັນຍາປະດິດ. ບໍ່ດົນຫຼັງຈາກການໂຈມຕີຂອງ Hamas ໃນເດືອນຕຸລາ 2023 ຕໍ່ອິດສະຣາເອນ, ພະແນກ cloud ຂອງ Google ໄດ້ເຮັດວຽກເພື່ອໃຫ້ກອງທັບປ້ອງກັນອິດສະຣາເອນເຂົ້າເຖິງເຄື່ອງມື AI, ເຖິງວ່າບໍລິສັດໄດ້ຢືນຢັນຢ່າງສາທາລະນະວ່າຈະຈຳກັດການມີສ່ວນຮ່ວມກັບກະຊວງລັດຖະບານພົນລະເຮືອນ, ເຈ້ຍໄດ້ລາຍງານໃນເດືອນທີ່ຜ່ານມາ, ໂດຍອ້າງອີງເອກະສານພາຍໃນບໍລິສັດ.

ການປ່ຽນແປງນະໂຍບາຍຂອງ Google ເກີດຂື້ນໃນຂະນະທີ່ຍັງມີຄວາມກັງວົນຢ່າງຕໍ່ເນື່ອງກ່ຽວກັບອັນຕະລາຍທີ່ AI ສ້າງຂື້ນຕໍ່ມະນຸດຊາດ. Geoffrey Hinton, ຕົວເລກທີ່ບุกເບີກໃນ AI ແລະຜູ້ຮັບລາງວັນໂນເບວ 2024 ດ້ານຟີຊິກ, ໄດ້ເຕືອນໃນທ້າຍປີທີ່ຜ່ານມາວ່າເຕັກໂນໂລຢີອາດຈະນຳໄປສູ່ການສູນພັນຂອງມະນຸດພາຍໃນສາມທົດສະວັດຂ້າງໜ້າ, ຄວາມເປັນໄປໄດ້ທີ່ລາວເຫັນວ່າສູງເຖິງ 20%.

Hinton ໄດ້ເຕືອນວ່າລະບົບ AI ອາດຈະເກີນຄວາມສະຫຼາດຂອງມະນຸດໃນທີ່ສຸດ, ຫຼົບໜີການຄວບຄຸມຂອງມະນຸດ ແລະ ອາດຈະເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍທີ່ຮ້າຍແຮງຕໍ່ມະນຸດຊາດ. ລາວໄດ້ຮຽກຮ້ອງໃຫ້ມີການຈັດສັນທຶນທີ່ສຳຄັນຕໍ່ຄວາມປອດໄພ AI ແລະ ການນຳໃຊ້ເຕັກໂນໂລຢີທາງດ້ານຈັນຍາບັນ ແລະ ວ່າມາດຕະການທີ່ມີການກະກຽມຄວນໄດ້ຮັບການພັດທະນາ.