เล เวี้ยต ก๊วก
เล เวี้ยต ก๊วก 黎曰國 | |
---|---|
เกิด | Lê Viết Quốc ค.ศ. 1982 (อายุ 41–42 ปี) เฮืองถุย จังหวัดเถื่อเทียนเว้ เวียดนาม |
การศึกษา | มหาวิทยาลัยแห่งชาติออสเตรเลีย มหาวิทยาลัยสแตนฟอร์ด |
อาชีพทางวิทยาศาสตร์ | |
สาขา | การเรียนรู้ของเครื่อง |
สถาบันที่ทำงาน | กูเกิลเบรน |
วิทยานิพนธ์ | การเรียนรู้ค่าแทนลักษณะแบบปรับสเกลได้ (2013) |
อาจารย์ที่ปรึกษาในระดับปริญญาเอก | แอนดรูว์ อึ่ง |
อาจารย์ที่ปรึกษาอื่น ๆ | อเล็กซ์ สโมลา |
เล เวี้ยต ก๊วก (เวียดนาม: Lê Viết Quốc, จื๋อโนม: 黎曰國, เกิด 1982)[1] เป็นนักวิทยาการคอมพิวเตอร์ชาวเวียดนาม ผู้บุกเบิกด้านการเรียนรู้ของเครื่อง ทำงานที่กูเกิลเบรน เขาเป็นหนึ่งในผู้ร่วมคิดค้นแบบจำลอง doc2vec[2] กับ seq2seq[3] ที่ใช้ในด้านการประมวลภาษาธรรมชาติ นอกจากนี้เขายังได้ริเริ่มและเป็นผู้นำโครงการริเริ่ม AutoML ของกูเกิลเบรน รวมถึงการนำเสนอเทคนิคการค้นหาสถาปัตยกรรมประสาท[4][5][6]
การศึกษาและการงาน
[แก้]เล เวี้ยต ก๊วก เกิดที่เมืองเฮืองถุย จังหวัดเถื่อเทียนเว้ ประเทศเวียดนาม[7] เขาเรียนที่ โรงเรียนมัธยมก๊วกห็อกเว้[8] ในปี 2004 เขาย้ายไปออสเตรเลียเพื่อศึกษาในหลักสูตรระดับปริญญาตรีที่มหาวิทยาลัยแห่งชาติออสเตรเลีย โดยมีอาจารย์ที่ปรึกษาคือ อเล็กซ์ สโมลา (Alex Smola) และศึกษาวิธีการเคอร์เนล ในการเรียนรู้ของเครื่อง[9] ในปี 2007 เขาเข้ามหาวิทยาลัยสแตนฟอร์ดเพื่อศึกษาระดับบัณฑิตศึกษาสาขาวิทยาการคอมพิวเตอร์โดยมีอาจารย์ที่ปรึกษาคือ แอนดรูว์ อึ่ง
ในปี 2011 เขากลายมาเป็นสมาชิกผู้ก่อตั้งกูเกิลเบรน ร่วมกับแอนดรูว์ อึ่ง ซึ่งเป็นอาจารย์ที่ปรึกษาขณะนั้น และ เจฟฟรีย์ ดีน และ เกรก คอร์ราโด นักวิจัยของกูเกิล[10] เลเป็นผู้นำการค้นพบขั้นตอนวิธีการเรียนรู้เชิงลึก ที่เป็นการคิดค้นครั้งสำคัญครั้งแรกของกูเกิลเบรน โดยทำการฝึกฝนบนหน่วยประมวลผลกลางแบบมัลติคอร์ 16,000 ตัว ทำให้มีความสามารถในการเรียนรู้ที่จะรู้จำแมวหลังจากดูวิดีโอในยูทูบโดยไม่เคยมีใครบอกว่า "แมว" คืออะไร[11][12]
ในปี 2014 เลได้ร่วมกับ อิลยา ซุซเคเวร์ (Ilya Sutskever) และ อูริออล วีญัลส์ (Oriol Vinyals) เสนอแบบจำลอง seq2seq สำหรับทำการแปลด้วยเครื่อง และในปีเดียวกันนั้น เขายังได้ร่วมกับ โตมาช มิโคโลฟ (Tomáš Mikolov) เสนอแบบจำลอง doc2vec ที่ใช้สำหรับการเรียนรู้ตัวแทนในการแปลงเอกสาร เขายังเป็นหนึ่งในผู้เขียนหลักและนักวิจัยของ ระบบการแปลด้วยเครื่องประสาทของกูเกิล (GNMT)[13]
เลริเริ่มและเป็นผู้นำโครงการ AutoML ของกูเกิลเบรน โดยรวมถึงการเสนอเกี่ยวกับการค้นหาสถาปัตยกรรมประสาท[14] เขาเป็นหนึ่งในผู้เขียน LaMDA ซึ่งเป็นแบบจำลองภาษาการสนทนาขนาดใหญ่ที่พัฒนาและเปิดตัวครั้งแรกในปี 2020 ภายใต้ชื่อ Meena ในปี 2022 เขาและผู้ทำงานร่วมกันได้เสนอให้ใช้ข้อความพร้อมรับแบบลูกโซ่ความคิด (chain-of-thought, CoT) เป็นวิธีการปรับปรุงความสามารถในการให้เหตุผลของแบบจำลองภาษาขนาดใหญ่[15]
อ้างอิง
[แก้]- ↑ "'Quái kiệt' AI Lê Viết Quốc - người đứng sau thuật toán Transformers của ChatGPT". Viettimes - tin tức và phân tích chuyên sâu kinh tế, quốc tế, y tế (ภาษาเวียดนาม). 2023-02-09. สืบค้นเมื่อ 2023-07-03.
- ↑ Le, Quoc V.; Mikolov, Tomas (2014-05-22). "Distributed Representations of Sentences and Documents". arXiv:1405.4053 [cs.CL].
- ↑ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc V. (2014-12-14). "Sequence to Sequence Learning with Neural Networks". arXiv:1409.3215 [cs.CL].
- ↑ "Le Viet Quoc, a young Vietnamese engineer who holds Google's brain". tipsmake.com (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2022-11-24.
- ↑ Hernandez, Daniela. "A Googler's Quest to Teach Machines How to Understand Emotions". Wired (ภาษาอังกฤษแบบอเมริกัน). ISSN 1059-1028. สืบค้นเมื่อ 2022-11-25.
- ↑ Chow, Rony (2021-06-07). "Quoc V. Le: Fast, Furious and Automatic". History of Data Science (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2022-11-26.
- ↑ "Le Viet Quoc, a young Vietnamese engineer who holds Google's brain". tipsmake.com (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2022-11-24.
- ↑ "Fulbright scholars Vietnam - Le Viet Quoc".
- ↑ "Meet Le Viet Quoc, a Vietnamese talent at Google". Tuoi Tre News (ภาษาอังกฤษแบบอเมริกัน). 2019-02-15. สืบค้นเมื่อ 2022-11-25.
- ↑ "Le Viet Quoc, a young Vietnamese engineer who holds Google's brain". tipsmake.com (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2022-11-24.
- ↑ Markoff, John (2012-06-25). "How Many Computers to Identify a Cat? 16,000". The New York Times.
- ↑ Ng, Andrew; Dean, Jeff (2012). "Building High-level Features Using Large Scale Unsupervised Learning". arXiv:1112.6209 [cs.LG].
- ↑ "A Neural Network for Machine Translation, at Production Scale". Google Research Blog (ภาษาอังกฤษแบบอเมริกัน). 2016-09-27. สืบค้นเมื่อ 2023-07-02.
- ↑ Zoph, Barret; Le, Quoc V. (2017-02-15). "Neural Architecture Search with Reinforcement Learning". arXiv:1611.01578 [cs.LG].
- ↑ "Language Models Perform Reasoning via Chain of Thought". Google Research Blog (ภาษาอังกฤษแบบอเมริกัน). 2022-05-22. สืบค้นเมื่อ 2023-07-02.