ประวัติของ Neural Networks
ถ้าคุณติดตามซีรีส์นี้มา คุณจะเห็นว่า neural networks ทำสิ่งที่น่าทึ่งมากมาย เราได้เห็นเครือข่ายเล็กๆ เรียนรู้การบวกตัวเลข—ง่ายแต่สร้างความประทับใจ แต่เมื่อเรามองไปที่ AI ในปัจจุบัน เช่น ChatGPT หรือ Midjourney การสาธิตง่ายๆ นั้นดูเหมือนจะเป็นเรื่องเด็กๆ AI รู้สึกเหมือนอยู่ทุกที่ เปลี่ยนแปลงอุตสาหกรรมในชั่วข้ามคืน.
แต่มีข้อควรระวัง: AI ไม่ใช่เรื่องใหม่. แนวคิดพื้นฐานเบื้องหลัง neural networks มีมานานเกือบ 80 ปี ดังนั้นทำไมมันถึงเริ่มเติบโตในตอนนี้?
เพื่อหาคำตอบ เรามาเดินทางย้อนเวลากันสั้นๆ—สำรวจขึ้นและลงของ neural networks การค้นพบที่ทำให้มันกลับมามีชีวิตชีวา และทำไมอนาคตถึงดูน่าตื่นเต้นยิ่งขึ้น.
จุดเริ่มต้น: 1940s–1950s
ในปี 1943 นักวิจัยสองคนที่มีความทะเยอทะยาน Warren McCulloch และ Walter Pitts ได้เสนอแนวคิดที่เรียบง่ายแต่มีความสำคัญ โดยได้รับแรงบันดาลใจจากสมองมนุษย์ พวกเขาสร้างแบบจำลองทางคณิตศาสตร์ของเซลล์ประสาท มันเป็นก้าวเล็กๆ แต่เป็นก้าวแรกที่สำคัญต่อปัญญาประดิษฐ์.
จากนั้นในปี 1958 Frank Rosenblatt ได้พัฒนามันต่อไปและสร้าง “Perceptron.” หนังสือพิมพ์ตื่นเต้นมาก คาดการณ์ว่าต่อไปเครื่องจักรจะเดิน พูด และแม้แต่คิดได้ มันน่าตื่นเต้น แต่ยังไม่เป็นจริง—อย่างน้อยก็ยังไม่ใช่.
ฤดูหนาวมาถึง: 1960s–1970s
ในปี 1969 ความฝันชนกำแพง นักวิจัย MIT Marvin Minsky และ Seymour Papert ได้เผยแพร่หนังสือของพวกเขา Perceptrons ซึ่งเปิดเผยข้อจำกัดพื้นฐานของ neural nets ในยุคแรกๆ ทันใดนั้น ความตื่นเต้นก็หายไป เงินทุนก็ลดน้อยลง Neural networks เข้าไปสู่สิ่งที่เราเรียกว่า “AI Winter” ซึ่งเป็นช่วงเวลาที่ยาวนานของความเงียบและความสงสัย.
ความหวากลับมา—แต่เงียบๆ: 1980s
ในปี 1986 neural networks กลับมาอย่างเงียบๆ David Rumelhart, Geoffrey Hinton และ Ronald Williams ได้ทำให้แนวคิดที่สำคัญเรียกว่า backpropagation เป็นที่นิยม ซึ่งช่วยให้ neural networks เรียนรู้รูปแบบที่ซับซ้อนมากขึ้นโดยการปรับการเชื่อมต่อภายในของพวกมัน แต่ยังมีปัญหาอยู่: เราไม่มีพลังการประมวลผลหรือข้อมูลเพียงพอที่จะใช้ศักยภาพนี้ได้จริง.
เป็นเวลานานที่ neural networks ส่วนใหญ่ยังคงอยู่ในวงการวิจัย นักวิจัยเชื่อมั่นในพวกมัน—แต่ธุรกิจไม่มั่นใจ.
ทุกอย่างเปลี่ยนแปลง: 2012
จากนั้นก็มีการแข่งขัน ImageNet ในปี 2012 Geoffrey Hinton และทีมของเขาได้นำเสนอ “AlexNet” ซึ่งเป็น deep neural network ที่ฝึกด้วย GPUs—ประเภทของฮาร์ดแวร์ที่ออกแบบมาเพื่อเกมที่ต้องใช้กราฟิกมาก AlexNet ไม่เพียงแต่ชนะ; มันทำลายการแข่งขัน ทันใดนั้น neural networks ก็พิสูจน์คุณค่าของพวกมัน.
เหตุการณ์นี้เป็นจุดเริ่มต้นของการปฏิวัติ deep learning Neural networks กลับมาอย่างดุเดือด—และไม่หยุดตั้งแต่นั้นมา.
ทำไม AI ถึงพัฒนาอย่างรวดเร็วในตอนนี้?
แนวคิดเบื้องหลัง AI สมัยใหม่มีมานานหลายทศวรรษ อย่างไรก็ตาม การระเบิดของ AI ที่เราเห็นในตอนนี้รู้สึกเหมือนเกิดขึ้นอย่างกะทันหัน ทำไม? คำตอบอยู่ที่การปฏิวัติที่สำคัญสองครั้ง:
การปฏิวัติ Transformer (2017): ความสนใจเปลี่ยนทุกอย่าง
จนถึงปี 2017 neural networks ส่วนใหญ่ถูกสร้างขึ้นจากสถาปัตยกรรมที่เรียกว่า RNNs หรือ LSTMs พวกมันสามารถจัดการกับภาษาได้ แต่มีปัญหาในเรื่องความซับซ้อนและลำดับที่ยาว.
จากนั้นนักวิจัยของ Google ได้เผยแพร่เอกสารที่ชื่อว่า “Attention Is All You Need,” ซึ่งแนะนำสถาปัตยกรรม Transformer Transformers เปลี่ยนเกมทั้งหมด:
- กลไกความสนใจ: Transformers สามารถมุ่งเน้นไปที่ส่วนที่สำคัญของข้อมูลนำเข้า เข้าใจบริบทได้ดีกว่าเคย.
- การคำนวณขนาน: Transformers สามารถฝึกได้เร็วและมีประสิทธิภาพมากขึ้นบนชุดข้อมูลขนาดใหญ่.
- ศักยภาพในการขยาย: Transformers ขยายได้ดีอย่างไม่น่าเชื่อ ยิ่งคุณมีข้อมูลและพลังการประมวลผลมากเท่าไร พวกมันก็ยิ่งฉลาดขึ้นเท่านั้น.
Transformers นำไปสู่โมเดลอย่าง BERT (สำหรับการเข้าใจภาษา) และ GPT-2, GPT-3, และ GPT-4 (สำหรับการสร้างภาษา) โมเดลเหล่านี้สามารถเขียนเรียงความ สร้างโค้ด และสนทนาในระดับใกล้เคียงกับมนุษย์.
โดยสรุป Transformers เป็นชิ้นส่วนที่ขาดหายไปที่ปลดล็อกศักยภาพของ AI ย้ายจาก “การทดลองที่น่าสนใจ” ไปสู่ “การปฏิวัติที่ใช้ได้จริง.”
การระเบิดของฮาร์ดแวร์: GPUs, TPUs, และ AI Supercomputers
เหตุผลที่สำคัญอีกประการหนึ่งสำหรับการเพิ่มขึ้นอย่างรวดเร็วของ AI: ฮาร์ดแวร์ Neural networks ต้องการพลังการประมวลผลมหาศาล ในช่วงหลายทศวรรษที่ผ่านมา CPUs ที่มีอยู่ไม่สามารถตามทันได้ จากนั้นนักวิจัยค้นพบว่า GPUs ชิปที่ออกแบบมาเพื่อกราฟิก เป็นตัวเลือกที่เหมาะสมที่สุดสำหรับคณิตศาสตร์ของ neural network GPUs สามารถทำการคำนวณได้หลายพันครั้งในเวลาเดียวกัน—ซึ่งเป็นสิ่งที่ neural networks ต้องการ.
การตระหนักรู้นี้กระตุ้นการปฏิวัติฮาร์ดแวร์:
- NVIDIA GPUs: GPUs พัฒนาจากชิปเกมไปเป็นศูนย์กลางพลังงาน AI ที่เชี่ยวชาญ GPUs A100 และ H100 ของ NVIDIA สามารถฝึก neural networks ขนาดใหญ่ที่เคยถูกมองว่าเป็นไปไม่ได้.
- TPUs ของ Google: Google ได้นำเสนอ “Tensor Processing Units” ที่ออกแบบเฉพาะสำหรับ neural networks ชิปเหล่านี้ทำให้การฝึกโมเดลขนาดใหญ่เช่น BERT และ GPT-4 เป็นไปได้มากขึ้น.
- AI Clusters & Cloud Platforms: ปัจจุบัน การฝึก neural networks ขนาดใหญ่เกี่ยวข้องกับ GPUs หลายพันตัวทำงานร่วมกัน เชื่อมต่อด้วยเครือข่ายความเร็วสูง บริษัทต่างๆ เช่น OpenAI, Google และ Meta สร้างศูนย์ข้อมูล AI ทั้งหมดเพื่อฝึกโมเดลของพวกเขา แพลตฟอร์มคลาวด์ (AWS, Azure, GCP) ได้ทำให้การเข้าถึงเป็นประชาธิปไตย ทำให้สตาร์ทอัพสามารถฝึกโมเดลที่ทรงพลังโดยไม่ต้องลงทุนมากมายในตอนแรก.
ด้วยการเติบโตอย่างรวดเร็วของฮาร์ดแวร์ นักวิจัยในที่สุดก็มีทรัพยากรเพียงพอที่จะทำตามความทะเยอทะยานของพวกเขา Neural networks สามารถเข้าถึงศักยภาพเต็มที่ของพวกเขา—และการระเบิดของ AI ก็เริ่มต้นขึ้น.
ต่อไปคืออะไร? อนาคตของ AI ดูน่าทึ่ง
มองไปข้างหน้า มันชัดเจนว่าเรายังอยู่ในจุดเริ่มต้น ไม่ใช่จุดสิ้นสุด ดังนั้นเราคาดหวังอะไรในปีต่อๆ ไป?
AI จะกลายเป็น Multimodal (ไม่ใช่แค่ข้อความ!)
AI กำลังเคลื่อนที่ไปไกลกว่าข้อความไปยังภาพ เสียง และวิดีโอ ในไม่ช้า คุณจะไม่เพียงแค่สนทนากับ AI—คุณจะขอให้มันวิเคราะห์ภาพ สรุปวิดีโอ หรือสร้างสไลด์ โมเดลอย่าง GPT-4 ที่มีความสามารถด้านวิสัยทัศน์และ Gemini เป็นตัวอย่างแรกๆ ของ AI ที่เข้าใจโลกได้เหมือนมนุษย์.
AI ทุกที่ (ในทุกสิ่งที่คุณใช้)
ปัจจุบัน คุณเปิดแอปและ “ใช้ AI.” ในไม่ช้า AI จะกลายเป็นสิ่งที่ไร้รอยต่อ—สร้างขึ้นในแอปและอุปกรณ์ที่คุณใช้ทุกวัน Microsoft Office, Google Docs, Adobe Photoshop, โปรแกรมแก้ไขโค้ดของคุณ, สเปรดชีต และแม้แต่แอปอีเมล—AI จะช่วยเพิ่มประสิทธิภาพและความคิดสร้างสรรค์อย่างเงียบๆ เบื้องหลัง กลายเป็นเพื่อนที่มองไม่เห็นแต่มีอยู่ตลอดเวลา.
AI บนอุปกรณ์ของคุณ (ไม่ต้องใช้อินเทอร์เน็ต)
ตอนนี้ AI มักจะอยู่บนเซิร์ฟเวอร์ขนาดใหญ่ แต่ในไม่ช้า ขอบคุณ neural networks ขนาดเล็กและชาญฉลาดและชิปสมาร์ทโฟนที่ทรงพลัง AI จะทำงานในเครื่องของคุณ เช่น โทรศัพท์ แล็ปท็อป หรือ VR headset ลองนึกภาพการมีผู้ช่วย AI ที่รู้จักคุณเป็นการส่วนตัว ทำงานออฟไลน์ ปกป้องความเป็นส่วนตัวของคุณ และปรับตัวให้เข้ากับพฤติกรรมและความชอบของคุณ.
AI Agents: ระดับถัดไปของการทำงานอัตโนมัติ
AI จะทำให้ไม่เพียงแค่การทำงาน แต่ยังรวมถึงการทำงานทั้งหมดอัตโนมัติ ผู้ช่วย AI จะจัดตารางการประชุมของคุณ ตอบอีเมลที่เป็นกิจวัตร เขียนรายงานเต็มรูปแบบ หรือแม้แต่เจรจาในนามของคุณ มันไม่ใช่แค่การสร้างข้อความอีกต่อไป—มันเกี่ยวกับการมอบหมายงานและไว้วางใจให้ AI จัดการงานที่ซับซ้อน.
ความท้าทายด้านจริยธรรมและการเลือกของมนุษย์
เมื่อ AI มีพลังมากขึ้น คำถามสำคัญก็เกิดขึ้น: เราจะทำอย่างไรเพื่อให้ AI ปลอดภัยและเป็นประโยชน์? เราจะจัดการกับปัญหาความลำเอียง ข้อมูลที่ผิดพลาด และความเป็นส่วนตัวได้อย่างไร? เราควรให้การควบคุม AI มากแค่ไหน และใครเป็นผู้ตัดสิน?
ทศวรรษถัดไปจะเห็นมนุษยชาติพยายามอย่างลึกซึ้งกับคำถามด้านจริยธรรมเหล่านี้ ผลักดันสังคมและผู้กำหนดกฎหมายเข้าสู่การอภิปรายที่สำคัญเกี่ยวกับบทบาทของเทคโนโลยีในชีวิตของเรา.
ความคิดสุดท้าย: การปฏิวัติ AI เพิ่งเริ่มต้น
Neural networks ไม่ใช่เรื่องใหม่ พวกมันอยู่ที่นี่ รอคอยอย่างเงียบๆ ปรับปรุงอย่างอดทน มันเพิ่งจะถึงเวลาที่ทุกอย่างเข้าที่: แนวคิด ข้อมูล ฮาร์ดแวร์ และการใช้งานจริง.
เรากำลังไม่เห็นจุดสิ้นสุดของการเดินทาง AI—เรากำลังเห็นจุดเริ่มต้นที่น่าตื่นเต้นของมัน แม้ว่า AI ในปัจจุบันจะรู้สึกมีพลัง แต่ทศวรรษถัดไปสัญญาว่าจะมีการเปลี่ยนแปลง การค้นพบ และความเป็นไปได้ที่ยิ่งใหญ่กว่า.
และสิ่งที่น่าตื่นเต้นที่สุด? ทั้งหมดนี้เพิ่งเริ่มต้น.