ข้ามไปเนื้อหา

ปัญญาประดิษฐ์แบบรู้สร้าง

จากวิกิพีเดีย สารานุกรมเสรี
A detailed oil painting of figures in a futuristic opera scene
ภาพเตอัทร์ดอเปราสปาซียาล ที่สร้างโดยมิดเจอร์นีย์

ปัญญาประดิษฐ์แบบรู้สร้าง[1], ปัญญาประดิษฐ์ช่วยสร้าง[2] หรือ เอไอแบบรู้สร้าง[3] (อังกฤษ: generative artificial intelligence, generative AI, GenAI) คือระบบปัญญาประดิษฐ์ ประเภทหนึ่งที่สร้างข้อความ รูปภาพ หรือ สื่ออื่น ๆ ตามข้อความพร้อมรับที่ป้อนเข้าไป[4][5]

แบบจำลองปัญญาประดิษฐ์แบบรู้สร้างจะอาศัยการเรียนรู้ความเป็นกฎเกณฑ์และโครงสร้างของข้อมูลที่ใช้ในการเรียนรู้ ช่วยให้สามารถสร้างข้อมูลใหม่ที่ไม่รวมอยู่ในชุดข้อมูลที่มันใช้ในการเรียนรู้ขึ้นมาได้[6][7]

ระบบปัญญาประดิษฐ์แบบรู้สร้างที่มีชื่อเสียง ได้แก่ แชตจีพีที ซึ่งเป็นแชทบอตที่สร้างโดยโอเพนเอไอ โดยใช้แบบจำลองภาษาขนาดใหญ่ (LLM) เช่น GPT-3 และ GPT-4[8] หรืออย่างเจมินีของกูเกิล ที่พัฒนาขึ้นจากโมเดลพื้นฐาน LaMDA นอกจากนี้ยังมีพวกระบบศิลปะปัญญาประดิษฐ์ เช่น สเตเบิลดิฟฟิวชัน และ DALL-E เป็นต้น[9]

ปัญญาประดิษฐ์แบบรู้สร้างได้ถูกใช้งานอย่างมีศักยภาพในหลากหลายแวดวงอุตสาหกรรม เช่น งานศิลปะ การพัฒนาซอฟต์แวร์ การดูแลสุขภาพ การเงิน เกม การตลาด แฟชั่น เป็นต้น[10][11] การลงทุนทางด้านปัญญาประดิษฐ์แบบรู้สร้างได้เพิ่มขึ้นเรื่อย ๆ ในช่วงต้นทศวรรษ 2020 ไม่เพียงแต่บริษัทขนาดใหญ่ เช่น ไมโครซอฟท์, กูเกิล และ ไป่ตู้ เท่านั้น แต่ยังรวมถึงองค์กรขนาดเล็กและขนาดกลางจำนวนมาก[4][12][13] อย่างไรก็ตาม ยังมีความกังวลเกี่ยวกับความเป็นไปได้ในการใช้งานปัญญาประดิษฐ์แบบรู้สร้างไปในทางที่ผิด เช่น การใช้สื่อที่มีลิขสิทธิ์อย่างผิดกฎหมายเพื่อวัตถุประสงค์ในการใช้เป็นข้อมูลฝึกสอนปัญญาประดิษฐ์แบบรู้สร้าง และการสร้างข่าวปลอมหรือ สื่อลวงลึกเพื่อหลอกลวงและครอบงำผู้คน[14][15] การอภิปรายเกี่ยวกับกฎหมายและข้อบังคับเช่น รัฐบัญญัติปัญญาประดิษฐ์ในสหภาพยุโรปเองก็กำลังอยู่ในระหว่างดำเนินการต่อไป[16][17] นอกจากนี้แล้ว ความสัมพันธ์กับแนวคิดทางเทคโนโลยีของซิลิคอนแวลลีย์ เช่น แนวคิดการเร่งความเร็วอย่างมีประสิทธิภาพ[18] ก็กลายเป็นประเด็นร้อนเช่นกัน

ประวัติศาสตร์

[แก้]

นับตั้งแต่สาขาการเรียนรู้ของเครื่องได้ถือกำเนิดขึ้นมา ก็ได้มีการใช้แบบจำลองเชิงสถิติ เพื่อสร้างจำลองรูปแบบและคาดการณ์สิ่งต่าง ๆ จากข้อมูลที่มี ในช่วงปลายทศวรรษ 2000 การถือกำเนิดขึ้นของเทคนิคการเรียนรู้เชิงลึกได้นำไปสู่ความก้าวหน้าและการวิจัยในงานต่าง ๆ เช่น การประมวลผลภาพและวิดีโอ การวิเคราะห์บริบทข้อความ และ การรู้จำคำพูด อย่างไรก็ตาม โครงข่ายประสาทเทียมเชิงลึกส่วนใหญ่อาศัยแบบจำลองแบบจำแนกในการการรู้จำแบบ

ในปี 2014 ความก้าวหน้าต่าง ๆ เช่น ตัวเข้ารหัสอัตโนมัติแบบแปรผัน (VAE) และโครงข่ายปฏิปักษ์ก่อกำเนิด (GAN) ได้นำไปสู่การถือกำเนิดของแบบจำลองก่อกำเนิดที่ดีพอที่จะสามารถใช้งานได้จริง ซึ่งสามารถเรียนรู้และสร้างข้อมูลที่ซับซ้อน เช่น รูปภาพ ขึ้นมาได้

ในปี 2017 โครงข่ายทรานส์ฟอร์เมอร์ช่วยให้เราสามารถสร้างแบบจำลองก่อกำเนิดขนาดใหญ่ขึ้นมาได้ และในปี 2018 ก็ได้มีการพัฒนา GPT ตัวแรกขึ้น[19] ในปี 2019 GPT-2 ได้ถูกสร้างขึ้นตามมา โดย GPT-2 ได้แสดงให้เห็นถึงความสามารถในนำเทคนิคการเรียนรู้แบบไม่มีผู้สอนมาใช้กับงานต่าง ๆ มากมายเพื่อสร้างเป็นแบบจำลองพื้นฐานขึ้นมา[20]

ผู้เชี่ยวชาญคาดการณ์ว่าในปี 2024 ความสำเร็จของปัญญาประดิษฐ์แบบรู้สร้างในการสร้างวิดีโอในการใช้งานจริงจะก้าวข้ามความสามารถของมนุษย์ เช่นเดียวกับในการสร้างรูปภาพ[21]

รูปแบบการสร้าง

[แก้]

ระบบปัญญาประดิษฐ์แบบรู้สร้างนั้นถูกสร้างขึ้นมาโดยการนำเทคนิคการเรียนรู้ของเครื่องแบบไม่มีผู้สอน หรือแบบสอนตัวเอง มาใช้กับชุดข้อมูล ความสามารถของระบบปัญญาประดิษฐ์แบบรู้สร้างจะแตกต่างกันไปขึ้นอยู่กับข้อมูลที่ใช้เรียนรู้

ปัญญาประดิษฐ์แบบรู้สร้างสามารถแบ่งคร่าว ๆ ได้เป็น ยูนิมอดัล และ มัลติมอดัล ระบบยูนิมอดัลยอมรับข้อมูลป้อนเข้าประเภทเดียวเท่านั้น (เช่น ข้อความ) ในขณะที่ระบบมัลติมอดัลจะยอมรับข้อมูลป้อนเข้าหลายประเภท (เช่น "ข้อความ + รูปภาพ") ได้ด้วย[22] ตัวอย่างเช่น GPT-4 ของโอเพนเอไอ ยอมรับทั้งข้อความและรูปภาพพร้อมกัน[23]

  • ข้อความ

ปัญหาที่กังวล

[แก้]

รัฐบาล บริษัท และบุคลากรด้านต่าง ๆ ได้แสดงความกังวลเกี่ยวกับปัญญาประดิษฐ์แบบรู้สร้าง ซึ่งสามารถสร้างสื่อชนิดต่าง ๆ ได้ง่ายดายขึ้นมาก และได้ก่อให้เกิดการประท้วง การฟ้องร้อง และการเรียกร้องให้มีการระงับการพัฒนาปัญญาประดิษฐ์ชั่วคราว นอกจากนี้ รัฐบาลทั่วโลกกำลังพิจารณากฎระเบียบต่าง ๆ ที่เกี่ยวข้องกับเรื่องนี้

ในการประชุมสุดยอด G7 ฮิโรชิมะที่จัดขึ้นในเดือนพฤษภาคม 2023 กระบวนการ AI ฮิโรชิมะได้ถูกนำมาใช้ และภายในกระบวนการนั้นได้มีการจัดตั้งการบริหารความเสี่ยงโดยมีเป้าหมายเพื่อให้สามารถสร้างปัญญาประดิษฐ์ที่ปลอดภัย มั่นคง และเชื่อถือได้

ได้มีการสรุปรวมแนวทางสากลสำหรับกระบวนการฮิโรชิมะสำหรับบุคคลที่เกี่ยวข้องกับปัญญาประดิษฐ์ทั้งหมด โดยกำหนดนโยบาย เช่น การลดความเสี่ยงจากปัญญาประดิษฐ์ โดยให้ผู้มีส่วนได้ส่วนเสียทั้งหมดตลอดวงจรชีวิตของปัญญาประดิษฐ์นั้นต่างต้องมีส่วนรับผิดชอบ[25]

เลขาธิการสหประชาชาติ อังตอนียู กูแตรึช กล่าวในงานแถลงข่าวของคณะมนตรีความมั่นคงแห่งสหประชาชาติเมื่อเดือนกรกฎาคม 2023 ว่าปัญญาประดิษฐ์มีศักยภาพในการ "เร่งการพัฒนาของโลก" และนำมาซึ่งความมั่งคั่งมหาศาล[26] เขากล่าวว่า "มันสามารถทำให้เกิดการบาดแผลและความเสียหายทางจิตใจอย่างรุนแรงซึ่งนำไปสู่การเสียชีวิตและการทำลายล้างในระดับที่ไม่อาจจินตนาการได้ ขึ้นอยู่กับวิธีใช้งาน"

การตกงาน

[แก้]
ข้อความเรียกร้อง “จำกัดการใช้ generative AI” เป็นหนึ่งในข้อเรียกร้องของในกระประท้วง SAG-AFTRA ปี 2023[27]

นับตั้งแต่ช่วงแรก ๆ ของการพัฒนาปัญญาประดิษฐ์ โยเซฟ ไวเซินเบาม์ (Joseph Weizenbaum) ผู้พัฒนา ELIZA ได้พูดคุยกันถึงประเด็นที่ว่าคอมพิวเตอร์สามารถทำอะไรได้บ้างและควรดำเนินการอย่างไร[28]

มีความกังวลว่าผู้สร้าง เช่น นักวาดภาพประกอบ นักแสดง และ นักพากย์ จะตกงาน เนื่องจากปัญญาประดิษฐ์แบบรู้สร้าง มีรายงานว่า ณ เดือนเมษายน 2023 งานนักวาดภาพประกอบชาวจีน 70% ได้หายไปเนื่องจากมีการใช้ปัญญาประดิษฐ์แบบรู้สร้างในการสร้างภาพ[29] [30] ในเดือนกรกฎาคม 2023 การพัฒนาปัญญาประดิษฐ์แบบรู้สร้างได้มีส่วนทำให้เกิดกาารประท้องแรงงานในฮอลลีวูด ฟราน เดรเชอร์ ประธานสมาพันธ์นักแสดงบนจอภาพได้ประกาศระหว่างการหยุดงานประท้วง SAG-AFTRA ปี 2023[31] ว่า "ปัญญาประดิษฐ์ก่อให้เกิดภัยคุกคามต่อวิชาชีพสร้างสรรค์" ปัญญาประดิษฐ์แบบรู้สร้างสำหรับช่วยสร้างเสียงถูกมองว่าเป็นภัยคุกคามต่ออุตสาหกรรมนักพากย์[32][33]

การสร้างข้อมูลปลอม

[แก้]
ภาพปลอมของดอนัลด์ ทรัมป์ ที่ถูกจับกุมซึ่งถูกสร้างขึ้นโดยเอลิออต ฮิกกินส์ (Eliot Higgins) โดยใช้มิดเจอร์นีย์ (ปี 2023)

ตั้งแต่อดีตมาได้มีการสร้างข้อมูลปลอมขึ้นมาโดยใช้เทคโนโลยีการประมวลผลภาพแบบดั้งเดิม แต่ตั้งแต่มีปัญญาประดิษฐ์แบบรู้สร้างเกิดขึ้นมาก็ได้ทำให้การสร้างและตัดต่อปลอมแปลงรูปภาพ วิดีโอ เสียง ข้อความ ฯลฯ ทำได้ง่ายขึ้นและแม่นยำยิ่งขึ้น ข้อมูลดังกล่าวอาจถูกนำไปใช้ในทางที่ผิดเพื่อ บิดเบือนความคิดเห็นของประชาชน การโฆษณาชวนเชื่อ การหมิ่นประมาท ฯลฯ มีกรณีต่าง ๆ มากมายทั้งในประเทศและต่างประเทศที่มีการบิดเบือนความคิดเห็นของประชาชน เช่น การสลับใบหน้าของนักการเมืองและการสร้างแถลงการณ์ การปลุกระดมที่เกี่ยวข้องกับภัยพิบัติ โฆษณาที่ปลอมแปลงเป็นรายการข่าว และ ภาพอนาจารปลอม

นอกจากนี้แล้ว ยังมีข้อกังวลเกี่ยวกับความน่าเชื่อถือ ความถูกต้อง เช่น การปลอมแปลงบันทึกทางประวัติศาสตร์ เช่น การสร้างบทความข่าว หรือบันทึกประสบการณ์แผ่นดินไหวครั้งใหญ่ในเขตคันโตโดยสภากาชาดญี่ปุ่น[34][35]

ด้วยเหตุนี้ จึงมีการวิจัยเกี่ยวกับการต่อต้านสื่อลวงลึกทั้งในและต่างประเทศ[36]

การปลอมเสียงเพื่อทำสื่อลวงลึก

[แก้]

มีตัวอย่างกรณีการใช้เสียงของคนดังและบุคคลสาธารณะที่กล่าวถึงข้อความที่ก่อให้เกิดความขัดแย้ง ทำให้เกิดข้อกังวลด้านจริยธรรมเกี่ยวกับการสร้างเสียงโดยปัญญาประดิษฐ์[37][38][39][40] เพื่อเป็นการรับมือปัญหานี้ บริษัทต่าง ๆ ได้ดำเนินการจัดการกับการละเมิดที่อาจเกิดขึ้นโดยอาศัยมาตรการรักษาความปลอดภัยและการยืนยันตัวตนของผู้ใช้[41]

สื่อลวงลึกได้ถูกนำมาใช้ในอาชญากรรมคอมพิวเตอร์ประเภทต่าง ๆ รวมถึง ฟิชชิง[42] นอกจากนี้ปัญญาประดิษฐ์แบบรู้สร้างข้อความยังถูกนำมาใช้ในวงกว้างเพื่อสร้างบทวิจารณ์ปลอมที่ได้รับคะแนนสูงบนเว็บไซต์ขายของจำนวนมาก นอกจากนี้ยังมีตัวอย่างของแบบจำลองภาษาขนาดใหญ่ที่สร้างขึ้นเพื่อจุดประสงค์ในอาชญากรรมคอมพิวเตอร์ เช่น WormGPT และ FraudGPT[43]

ศุมาน โฆเสมชุมทร (Shuman Ghosemajumder) ซึ่งได้เคยทำงานเพื่อต่อสู้กับการฉ้อโกงการคลิกที่กูเกิลได้คาดการณ์ว่าวิดีโอปลอมที่ได้สร้างความแตกตื่นกันในระยะแรกนั้นจะกลายมาเป็นเรื่องธรรมดามากขึ้นในไม่ช้า และจะยิ่งมีอันตรายมากขึ้น[44]

การศึกษาในปี 2023 ระบุช่องโหว่ที่สามารถใช้เพื่อเลี่ยงการป้องกันของแชตจีพีทีและดึงข้อมูลที่เป็นอันตรายผ่านการโจมตีโดยใช้การแหกคุกหรือจิตวิทยาย้อนกลับ การศึกษาชี้ให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้นจากแชตจีพีทีที่ถูกนำไปใช้ประโยชน์ในด้านวิศวกรรมสังคม และ การหลอกลวงแบบฟิชชิง ขณะเดียวกันก็ชี้ให้เห็นถึงศักยภาพในการปรับปรุงความปลอดภัยทางไซเบอร์ด้วยการใช้ประโยชน์จากปัญญาประดิษฐ์แบบรู้สร้าง[45]

ประสาทหลอน

[แก้]

คำว่า "ประสาทหลอน" (hallucination) ในบริบทของปัญญาประดิษฐ์ คือการที่ปัญญาประดิษฐ์ให้คำตอบของปัญหาที่ไม่ได้สอดคล้องกับข้อมูลใด ๆ ที่ใช้ในการเรียนรู้ได้อย่างไม่มีปี่มีขลุ่ย เปรียบเสมือนอาการประสาทหลอนของมนุษย์ แต่นักวิจัยบางคนชอบเรียกด้วยคำว่า "การสร้างเรื่องจากความจำเสื่อม" มากกว่า

ในปี 2023 ทนายความในนิวยอร์ก สหรัฐอเมริกา ใช้แชตจีพีทีเพื่อสร้างเอกสารสำหรับการฟ้องร้องคดีแพ่งซึ่งไม่มีอยู่จริง[46][47]

ในเดือนพฤศจิกายน 2023 มีการค้นพบเว็บไซต์สรุปรวบรวมที่มีข้อความระบุว่านักแสดงหลายคนสนับสนุนพรรคการเมืองเรวะชินเซ็งงุมิ[48][49] ผู้สร้างเว็บไซต์อธิบายว่า บทความนี้เขียนโดยปัญญาประดิษฐ์ และโพสต์ไปโดยไม่ได้ยืนยันว่าคนดังสนับสนุนพรรคเรวะชินเซ็งงุมิจริงหรือไม่[50][51]

การเสริมสร้างอคติทางเชื้อชาติและเพศ

[แก้]

มีความกังวลว่าปัญญาประดิษฐ์แบบรู้สร้างอาจสะท้อนและขยายอคติทางวัฒนธรรมที่มีอยู่ในข้อมูลที่ใช้เรียนรู้ ตัวอย่างเช่น แพทย์ วิศวกร ครู ฯลฯ อาจเป็นผู้ชาย ในขณะที่เลขานุการ คนทำอาหาร พยาบาล ฯลฯ อาจเป็นผู้หญิง[52] หรือ "ภาพถ่ายของ CEO" อาจสร้างรูปภาพของผู้ชายผิวขาวในอัตราส่วนที่มากเกินควร[53] มีการตรวจสอบเทคนิคในการลดอคติ เช่น การเปลี่ยนข้อความแจ้งการป้อนข้อมูล[54] และการปรับน้ำหนักข้อมูลการฝึกอบรม[55]

การใช้ในการรายงานข่าว

[แก้]

ในเกาหลีใต้ จีน ไต้หวัน คูเวต และกรีซได้มีการสร้างผู้ประกาศข่าวด้วยปัญญาประดิษฐ์เพื่อรายงานข่าว ซึ่งทำให้ผู้บรรยายที่เป็นมนุษย์ตกงาน[56] และยังทำให้เกิดความกังวงเรื่องความสัมพันธ์ระหว่างผู้ออกอากาศ ผู้สร้างเนื้อหา และผู้มีอิทธิพลทางโซเชียลมีเดีย การบรรยายที่สร้างขึ้นด้วยอัลกอริทึมยังได้ถูกนำมาใช้โดยรัฐอิสลามอิรักและลิแวนต์ด้วย[57]

ในปี 2023 มีรายงานว่ากูเกิลได้ทำการตลาดให้กับองค์กรข่าวด้วยเครื่องมือที่อ้างว่า "สร้างบทความข่าว" โดยอิงจากข้อมูลป้อนเข้า เช่น "รายละเอียดเกี่ยวกับเหตุการณ์ปัจจุบัน" เพื่อตอบโต้ต่อการนำเสนอข่าวนี้ องค์กรข่าวได้อธิบายว่าเครื่องมือนี้ "เป็นการดูถูกความพยายามในการผลิตข่าวที่แม่นยำและซับซ้อน"

เดอะวอชิงตันโพสต์ตั้งข้อสังเกตว่า Meta AI ซึ่งเป็นแชทบอทที่ใช้ Llama 3 ซึ่งสรุปบทความข่าว สามารถคัดลอกข้อความจากบทความโดยไม่ต้องระบุแหล่งที่มาโดยตรง เป็นไปได้ที่จะทำให้ปริมาณการเข้าชมสื่อข่าวออนไลน์ลดลง

กฎหมายและข้อบังคับ

[แก้]

ในสหรัฐอเมริกา บริษัทต่าง ๆ รวมถึง โอเพนเอไอ, แอลฟาเบต อิงก์ และ เมตา ได้ลงนามในข้อตกลงเกี่ยวกับปัญญาประดิษฐ์แบบรู้สร้างกับทางทำเนียบขาว ในเดือนกรกฎาคม 2023 ด้วยลายน้ำแบบดิจิทัล[58] ในเดือนตุลาคม 2023 คำสั่งผู้บริหารที่ 14110 ได้ตราพระราชบัญญัติการผลิตด้านกลาโหม โดยกำหนดให้บริษัทในสหรัฐอเมริกาทุกแห่งต้องรายงานต่อรัฐบาลกลางเมื่อทำการฝึกสอนโมเดลปัญญาประดิษฐ์ขนาดใหญ่[59]

รัฐบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรป ได้ระบุถึงข้อกำหนดในการเปิดเผยข้อมูลที่มีลิขสิทธิ์ซึ่งใช้ในการฝึกสอนระบบปัญญาประดิษฐ์และให้มีกาติดฉลากผลิตภัณฑ์ที่สร้างด้วยปัญญาประดิษฐ์[60][61]

ในประเทศจีน ปัญญาประดิษฐ์แบบรู้สร้างอยู่ภายใต้กฎระเบียบภายใต้มาตรการชั่วคราวสำหรับการจัดการบริการปัญญาประดิษฐ์แบบรู้สร้างที่นำมาใช้โดยฝ่ายบริหารไซเบอร์สเปซของรัฐบาล ซึ่งรวมถึงข้อกำหนดสำหรับการสร้างลายน้ำรูปภาพและวิดีโอ คุณภาพของข้อมูลและป้ายกำกับการฝึกสอน จำกัดการการรวบรวมข้อมูลส่วนบุคคล และตั้งข้อกำหนดให้ปัญญาประดิษฐ์แบบรู้สร้างต้อง "ยึดมั่นในค่านิยมหลักสังคมนิยม"[62][63]

อ้างอิง

[แก้]
  1. กานต์ ยืนยง (2023). "การประยุกต์ใช้ปัญญาประดิษฐ์แบบรู้สร้างทั้งในด้านการวิเคราะห์ และการวิจัยในสังคมศาสตร์". วารสารสมาคมรัฐประศาสนศาสตร์แห่งประเทศไทย. 5 (10): 109–131. สืบค้นเมื่อ 4 ตุลาคม 2024.
  2. "Gen Ed SSRU ร่วมแลกเปลี่ยนเรียนรู้การใช้ประโยชน์จากปัญญาประดิษฐ์ช่วยสร้างเพื่อเป็นผู้ร่วมรังสรรค์บทความวิจัย". สำนักวิชาการศึกษาทั่วไปและนวัตกรรมการเรียนรู้อิเล็กทรอนิกส์ มหาวิทยาลัยราชภัฏสวนสุนันทา. 16 สิงหาคม 2024. สืบค้นเมื่อ 4 ตุลาคม 2024.
  3. "Generative AI เอไอแบบรู้สร้าง". สำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สวทช.). 2 พฤศจิกายน 2022. สืบค้นเมื่อ 4 ตุลาคม 2024.
  4. 4.0 4.1 Griffith, Erin; Metz, Cade (2023-01-27). "Anthropic Said to Be Closing In on $300 Million in New A.I. Funding". en:The New York Times. สืบค้นเมื่อ 2023-03-14.
  5. Lanxon, Nate; Bass, Dina; Davalos, Jackie (March 10, 2023). "A Cheat Sheet to AI Buzzwords and Their Meanings". Bloomberg News. สืบค้นเมื่อ March 14, 2023.
  6. Pasick, Adam (2023-03-27). "Artificial Intelligence Glossary: Neural Networks and Other Terms Explained". The New York Times (ภาษาอังกฤษแบบอเมริกัน). ISSN 0362-4331. สืบค้นเมื่อ 2023-04-22.
  7. Andrej Karpathy; Pieter Abbeel; Greg Brockman; Peter Chen; Vicki Cheung; Yan Duan; Ian Goodfellow; Durk Kingma; Jonathan Ho (2016-06-16). "Generative models". OpenAI. สืบค้นเมื่อ 2023-05-20.
  8. Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  9. Roose, Kevin (2022-10-21). "A Coming-Out Party for Generative A.I., Silicon Valley's New Craze". The New York Times. สืบค้นเมื่อ 2023-03-14.
  10. Harreis, H.; Koullias, T.; Roberts, Roger. "Generative AI: Unlocking the future of fashion". สืบค้นเมื่อ 2023-03-14.
  11. "Don't fear an AI-induced jobs apocalypse just yet". The Economist. 2023-03-06. สืบค้นเมื่อ 2023-03-14.
  12. "The race of the AI labs heats up". The Economist. 2023-01-30. สืบค้นเมื่อ 2023-03-14.
  13. Yang, June; Gokturk, Burak (2023-03-14). "Google Cloud brings generative AI to developers, businesses, and governments". สืบค้นเมื่อ 2023-03-15.
  14. Justin Hendrix (May 16, 2023). "Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI". techpolicy.press. สืบค้นเมื่อ May 19, 2023.
  15. "「チャットGPT」にEUが要求:情報源を開示せよ". The Wall Street Journal. สืบค้นเมื่อ 2023-04-28.
  16. "ChatGPT and the EU AI Act". mhc.ie. Mason Hayes & Curran. สืบค้นเมื่อ 29 November 2023.
  17. Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). "EU lawmakers vote for tougher AI rules as draft moves to final stage". Reuters (ภาษาอังกฤษ). สืบค้นเมื่อ July 26, 2023.
  18. Jones, Rachyl (2023-10-16). "Marc Andreessen just dropped a 'Techno-Optimist Manifesto' that sees a world of 50 billion people settling other planets". Fortune. เก็บจากแหล่งเดิมเมื่อ 28 November 2023. สืบค้นเมื่อ 2023-11-26.
  19. "finetune-transformer-lm". GitHub. สืบค้นเมื่อ 2023-05-19.
  20. Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). "Language models are unsupervised multitask learners". OpenAI blog. 1 (8): 9.{{cite journal}}: CS1 maint: multiple names: authors list (ลิงก์)
  21. "Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott". Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (ภาษาอังกฤษ). 2023-12-27. สืบค้นเมื่อ 2023-12-28.
  22. https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  23. https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  24. Chen, Ming; Tworek, Jakub (2021-07-06). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG].
  25. "広島AIプロセスについて" (PDF). 総務省. สืบค้นเมื่อ 2024-03-07.
  26. "Secretary-General's remarks to the Security Council on Artificial Intelligence". un.org. 18 July 2023. สืบค้นเมื่อ 27 July 2023.
  27. "The Writers Strike Is Taking a Stand on AI" (ภาษาอังกฤษ). 4 May 2023. สืบค้นเมื่อ 11 June 2023. {{cite journal}}: Cite journal ต้องการ |journal= (help)
  28. Tarnoff, Ben (4 August 2023). "Lessons from Eliza". The Guardian Weekly. pp. 34–39.
  29. Zhou, Viola (2023-04-11). "AI is already taking video game illustrators' jobs in China". Rest of World (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2023-08-17.
  30. Carter, Justin (2023-04-11). "China's game art industry reportedly decimated by growing AI use". Game Developer (ภาษาอังกฤษ). สืบค้นเมื่อ 2023-08-17.
  31. Collier, Kevin (July 14, 2023). "Actors vs. AI: Strike brings focus to emerging use of advanced tech". NBC News. สืบค้นเมื่อ 2024-03-06.
  32. Wiggers, Kyle (2023-08-22). "ElevenLabs' voice-generating tools launch out of beta". TechCrunch (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2023-09-25.
  33. Shrivastava, Rashi. "'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods". Forbes (ภาษาอังกฤษ). สืบค้นเมื่อ 2023-11-28.
  34. 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
  35. "生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言". คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2023-09-27. สืบค้นเมื่อ 2024-01-08.
  36. 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  37. "People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips". PCMag Middle East (ภาษาอังกฤษ). 2023-01-31. สืบค้นเมื่อ 2023-07-25.
  38. "The generative A.I. software race has begun". Fortune (ภาษาอังกฤษ). สืบค้นเมื่อ 2023-02-03.
  39. "Seeing is believing? Global scramble to tackle deepfakes". news.yahoo.com (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2023-02-03.
  40. Vincent, James (January 31, 2023). "4chan users embrace AI voice clone tool to generate celebrity hatespeech". The Verge (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2023-02-03.
  41. "A new AI voice tool is already being abused to make deepfake celebrity audio clips". Engadget (ภาษาอังกฤษแบบอเมริกัน). January 31, 2023. สืบค้นเมื่อ 2023-02-03.
  42. Sjouwerman, Stu (2022-12-26). "Deepfakes: Get ready for phishing 2.0". Fast Company. สืบค้นเมื่อ 2023-07-31.
  43. "After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data". PCMAG (ภาษาอังกฤษ). สืบค้นเมื่อ 2023-07-31.
  44. Sonnemaker, Tyler. "As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring". Business Insider (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2023-07-31.
  45. Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). "From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy". IEEE Access. 11: 80218–80245. arXiv:2307.00691. Bibcode:2023IEEEA..1180218G. doi:10.1109/ACCESS.2023.3300381.
  46. "ChatGPT: US lawyer admits using AI for case research". BBC News (ภาษาอังกฤษแบบบริติช). 2023-05-27. สืบค้นเมื่อ 2023-08-15.
  47. "ChatGPTで資料作成、実在しない判例引用 米国の弁護士". 日本経済新聞 (ภาษาญี่ปุ่น). 2023-05-31. สืบค้นเมื่อ 2023-08-15.
  48. "れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」". 共同通信. 2023-11-10. สืบค้นเมื่อ 2023-11-12.
  49. "れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」?". 朝日新聞. 2023-11-10. สืบค้นเมื่อ 2023-11-12.
  50. 日本テレビ (2023-11-10). "○○さんらの"偽コメント"ブログ 作成者が日テレの取材に回答(一部伏せ字)". 日テレNEWS NNN. สืบค้นเมื่อ 2023-11-12.
  51. "サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援". 共同通信. 2023-11-10. สืบค้นเมื่อ 2023-11-12.
  52. Rachel Gordon (March 3, 2023). "Large language models are biased. Can logic help save them?". MIT CSAIL. สืบค้นเมื่อ 2024-01-26.
  53. OpenAI (2022-07-18). "Reducing bias and improving safety in DALL·E 2". OpenAI. สืบค้นเมื่อ 2024-01-26.
  54. Jake Traylor (July 27, 2022). "No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI". NBC News. สืบค้นเมื่อ 2024-01-26.
  55. "DALL·E 2 pre-training mitigations". OpenAI. 2022-06-28. สืบค้นเมื่อ 2024-01-26.
  56. "TV channels are using AI-generated presenters to read the news. The question is, will we trust them?". BBC News (ภาษาอังกฤษแบบบริติช). 2024-01-26. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2024-01-26. สืบค้นเมื่อ 2024-05-24.
  57. "These ISIS news anchors are AI fakes. Their propaganda is real". Washington Post. 2024-05-17. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2024-05-19. สืบค้นเมื่อ 2024-05-24.
  58. Bartz, Diane; Hu, Krystal (July 21, 2023). "OpenAI, Google, others pledge to watermark AI content for safety, White House says". Reuters.
  59. "FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence". The White House. 2023-10-30. สืบค้นเมื่อ 2024-01-30.
  60. Chee, Foo Yun; Mukherjee, Supantha (June 14, 2023). "EU lawmakers vote for tougher AI rules as draft moves to final stage". Reuters (ภาษาอังกฤษ). สืบค้นเมื่อ July 26, 2023.
  61. "ChatGPT and the EU AI Act". mhc.ie. Mason Hayes & Curran. สืบค้นเมื่อ 29 November 2023.
  62. "生成式人工智能服务管理暂行办法". 2023-07-13.
  63. Ye, Josh (2023-07-13). "China says generative AI rules to apply only to products for the public". Reuters. สืบค้นเมื่อ 2023-07-13.