สื่อลวงลึก
สื่อลวงลึก[1] (อังกฤษ: deepfake, ประกอบขึ้นจากศัพท์ deep learning "การเรียนรู้เชิงลึก" และ fake "ปลอม")[2] คือสื่อสังเคราะห์[3] ที่ซึ่งบุคคลในรูปภาพหรือวิดีโอหนึ่ง ๆ ถูกแทนที่ด้วยลักษณะหรืออากัปกิริยาของบุคคลอื่น แม้ว่าการปลอมแปลงเนื้อหาจะไม่ใช่เรื่องใหม่ แต่สื่อลวงลึกก็ใช้เทคนิคอันทรงพลังจากการเรียนรู้ของเครื่องและปัญญาประดิษฐ์ในการบิดเบือนหรือสร้างเนื้อหาภาพและเสียงที่มีศักยภาพสูงในการหลอกลวง[4] วิธีการเรียนรู้ของเครื่องวิธีหลัก ๆ ที่ใช้ในการสร้างสื่อลวงลึกนั้นมีพื้นฐานมาจากการเรียนรู้เชิงลึกและเกี่ยวโยงกับการฝึกฝนข้อมูลสถาปัตยกรรมเครือข่ายประสาทเทียมอย่างเช่นตัวเข้ารหัสอัตโนมัติ[4] และโครงข่ายปฏิปักษ์ก่อกำเนิด (GAN)[5][6] เป็นต้น
สื่อลวงลึกได้รับความสนใจอย่างกว้างขวางจากการถูกนำไปใช้ในวิดีโอการมีเพศสัมพันธ์ของผู้มีชื่อเสียง สื่อลามกเพื่อแก้แค้น ข่าวปลอม เรื่องหลอกลวง และกลฉ้อฉลทางการเงิน[7][8][9][10] สถานการณ์นี้ก่อให้เกิดการตอบสนองจากทั้งภาคอุตสาหกรรมและภาครัฐบาลเพื่อตรวจจับและจำกัดการใช้งาน[11][12]
สื่อลวงลึกคืออะไร?
[แก้]ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ ภายใต้สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์หรือ เอ็ตด้า (ETDA) ให้ข้อมูลว่าสื่อลวงลึกเอไอ[13] คือปัญญาประดิษฐ์แบบรู้สร้างรูปแบบหนึ่ง ที่สามารถสร้างสื่อสังเคราะห์ ทั้งภาพนิ่ง เสียง ภาพเคลื่อนไหวพร้อมเสียง ได้เหมือนคนพูดจริงๆ จนแทบแยกไม่ออก ด้วยระบบการเรียนรู้หรือการเรียนรู้เชิงลึก จากลักษณะภายนอกของบุคคล เช่น สีผิว ตา ปาก จมูก รูปลักษณ์ต่างๆ ความฉลาดล้ำจากการเรียนรู้ข้อมูลมหาศาลของปัญญาประดิษฐ์แบบรู้สร้างทำให้สร้างภาพและเสียงได้ราวกับว่าคนคนนั้นเป็นคนพูดอยู่จริง โดยคำว่า "ลึก" (deep) มาจาก "การเรียนรู้เชิงลึก" (deep learning) ซึ่งเป็นเทคนิคในการสร้างแบบจำลองทางคณิตศาสตร์ที่ซับซ้อน และ "ลวง" หรือ "ปลอม" (fake) หมายถึงการปลอมแปลงหลอกลวง
ดังนั้น "ลวงลึก" (deep fake) ในที่นี้จึงหมายถึง การปลอมแปลงสื่อสังเคราะห์โดยใช้เทคโนโลยีปัญญาประดิษฐ์ที่ซับซ้อน ทำงานโดยใช้เทคนิคการเรียนรู้เชิงลึก ซึ่งเป็นส่วนหนึ่งของปัญญาประดิษฐ์ โดยการสร้างแบบจำลองทางคณิตศาสตร์ที่ซับซ้อนเพื่อเรียนรู้รูปแบบและลักษณะของบุคคลที่ต้องการปลอมแปลง โดยใช้ข้อมูลเข้า (input data) เช่น ภาพถ่ายหรือวิดีโอของบุคคลนั้น ๆ และข้อมูลอื่น ๆ เพื่อสร้างภาพหรือวิดีโอที่เหมือนกับบุคคลนั้น ๆ
รูปแบบกลโกงและผลกระทบจากสื่อลวงลึก
[แก้]- ทางเพศ: การสร้างวิดีโอหรือสื่อลามกอนาจาร ซึ่งมีการใช้ใบหน้าของบุคคลที่มีชื่อเสียง ซึ่งอาจทำให้เกิดผลกระทบทางสังคมและการเมือง การใช้กระทำในลักษณะนี้เป็นการกระทำที่ผิดกฎหมายและอาจสร้างผลกระทบทางจิตใจร้ายแรงให้แก่เหยื่ออีกด้วย
- ทางการเมือง: การสร้างวิดีโอปลอมแปลงใบหน้านักการเมือง ซึ่งอาจทำให้เกิดกระแสข่าวปลอมที่สามารถส่งผลกระทบร้ายแรงต่อกระบวนการประชาธิปไตย ความไว้วางใจของสถาบัน และชื่อเสียงของประเทศได้
- ทางธุรกิจและกฎหมาย: การใช้สื่อลวงลึก อาจทำให้เกิดความสับสนและความไม่เชื่อถือในระบบกฎหมาย สามารถเป็นเครื่องมือในการก่อกวนระบบกฎหมาย และทำให้เกิดความสับสนในการตรวจสอบความถูกต้องของข้อมูล นอกจากนี้ยังสามารถใช้ในการสร้างวิดีโอปลอมแปลงผู้บริหารหรือนักลงทุน ซึ่งอาจทำให้เกิดความสับสนและการฉ้อโกงทางธุรกิจซึ่งส่งผลกระทบทางการเงินและตลาดทุน[14]
อ้างอิง
[แก้]- ↑ สำนักงานราชบัณฑิตยสภา. พจนานุกรมศัพท์นิเทศศาสตร์ร่วมสมัย ฉบับราชบัณฑิตยสภา. กรุงเทพฯ : สำนักงานราชบัณฑิตยสภา, 2566, หน้า 55.
- ↑ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2018-02-20.
- ↑ "Prepare, Don't Panic: Synthetic Media and Deepfakes". witness.org. สืบค้นเมื่อ 25 November 2020.
- ↑ 4.0 4.1 Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006.
- ↑ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (ภาษาอังกฤษ). สืบค้นเมื่อ 14 November 2018.
- ↑ PhD, Sven Charleer (2019-05-17). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium (ภาษาอังกฤษ). สืบค้นเมื่อ 2019-11-08.
- ↑ "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (ภาษาอังกฤษแบบอเมริกัน). 2018-02-20. สืบค้นเมื่อ 2018-02-20.
- ↑ "Experts fear face swapping tech could start an international showdown". The Outline (ภาษาอังกฤษ). สืบค้นเมื่อ 2018-02-28.
- ↑ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (ภาษาอังกฤษแบบอเมริกัน). ISSN 0362-4331. สืบค้นเมื่อ 2018-03-24.
- ↑ Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (October 2019), Adversarial Learning of Deepfakes in Accounting (ภาษาอังกฤษ), arXiv:1910.03810, Bibcode:2019arXiv191003810S
- ↑ Ghoshal, Abhimanyu (2018-02-07). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2019-11-09.
- ↑ Clarke, Yvette D. (2019-06-28). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. สืบค้นเมื่อ 2019-10-16.
- ↑ "รู้ทัน AI Deepfake เมื่อ…ภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป!". ETDA.
- ↑ provider, trustfinance (2023-11-02). ""Deepfake" รู้ทันกลโกงจากแก๊งคอลเซนเตอร์". Blog - TrustFinance (ภาษาอังกฤษแบบอเมริกัน). คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2023-11-06. สืบค้นเมื่อ 2023-11-06.