เกาะติดข่าวดาราก่อนใคร

กดติดตาม “ทีวีพูล”

banner

กลายเป็นดราม่าเดือดบนโลกออนไลน์ หลังผู้ใช้ X บัญชี Red Skull ออกมาเผยแพร่เรื่องราวของหนุ่มรายหนึ่ง ที่ออกมาเตือนภัยการใช้ระบบ AI ในการแต่งภาพ แต่กลับดัดแปลงรูปของเพื่อน เป็นภาพเปลือยลง

โดยระบุว่า “คอนเทนต์ควาย ๆ มาอีกแล้ว” ขณะที่ทางด้านของหนุ่มเจ้าของโพสต์ระบุข้อความเอาไว้ว่า “AI เดี๋ยวนี้ไปไกลมาก ผมลอง ใช้ AI แต่งรูป เพื่อน คือสามารถถอดเสื้อผ้าออกทั้งตัวได้ ระวังกันหน่อยนะคนที่ลงรูปบ่อย ๆ “

พร้อมกับโพสต์ภาพเพื่อนสาวของตัวเอง ภาพหนึ่งใส่เสื้อผ้ามิดชิด ส่วนอีกภาพ ถูกใช้ AI แต่งรูป จนกลายเป็นภาพอานาจารย์กลางร้านสะดวกซื้อ งานนี้เมื่อเผยแพร่ออกไป ต่างมีชาวเน็ตจำนวนมาก เข้ามาแสดงความคิดเห็นต่อวิธีการเตือนภัยที่ไม่ถูกต้องสนั่น

คอมเมนต์บางส่วน -AI ไม่ได้อันตรายหรอกครับ คนใช้นี่แหล่ะตัวอันตราย เหมือนกับมีดหั่นผัก แต่คนที่ชั่วมันเอาไปฆ่าคน

 

ข่าวที่น่าสนใจ

by TVPOOL ONLINE