ผู้สร้างข่าวปลอมที่ใช้เทคนิคการทำแผน

news

Deepfakes ให้อินเทอร์เน็ตเป็นอย่างอื่นที่น่ากังวลในเดือนกุมภาพันธ์หลังจากที่ปรากฏว่าซอฟต์แวร์ฟรีหมายความว่าทุกคนสามารถแทนที่ใบหน้าของคนคนหนึ่งด้วยวิดีโอในรูปของคนอื่นตราบใดที่คุณมีภาพถ่ายมากพอ เครื่องมือนี้ถูกใช้เพื่อสร้างภาพลามกอนาจารด้วยคุณลักษณะที่มีชื่อเสียงของหญิงสาวที่สร้างขึ้นเพื่อแทนที่บรรดานักแสดงหญิงวัยผู้ใหญ่ดั้งเดิม

หลังจากเว็บไซต์อื่น ๆ เข้าแถวกันเพื่อห้ามไม่ให้มีเนื้อหาจนกระทั่ง Reddit ซึ่งเคยเป็นบ้านของมันมาก่อนก็ตัดสินใจที่จะทำเช่นเดียวกัน ในเดือนกันยายน Google ได้เปิดตัวความสามารถสำหรับผู้ที่ตกเป็นเหยื่อของสิ่งที่เรียกว่า “ภาพอนาจารปลอมโดยไม่สมัครใจ” เพื่อลบเนื้อหาดังกล่าวออกจากผลการค้นหาของ บริษัทเมื่ออัลกอริทึมที่เกี่ยวข้องได้รับการปรับปรุงมีการพูดคุยกันมากเกี่ยวกับอันตรายของผู้สร้างข่าวปลอมที่ใช้เทคนิคการทำแผนที่ใบหน้าเพื่อสร้างวิดีโอปลอมของนักการเมือง

Comments are closed.