
AI 發展
里程碑
理論基礎 架構突破 科學應用 人機競技 獎項榮譽 生成式AI 法規政策
2026
-
科學應用 AlphaGenome:解讀全基因組
DeepMind發布AlphaGenome,可分析人類全基因組(包含98%非編碼DNA),預測基因突變對基因表達的影響,在26項基準中25項達到最優,發表於《自然》期刊,為精準醫療開啟新紀元。
📚 資料來源:Google DeepMind, "AlphaGenome", Nature, January 2026
2025
-
法規政策 各國AI主權競賽加劇
美國、中國、歐盟、阿聯酋等持續加碼AI基礎設施投資,美國推出「星際之門計畫」(Stargate),投入5000億美元建設AI數據中心,全球AI算力競賽進入新階段。
📚 資料來源:US Stargate Project announcement, January 2025; various government AI investment reports
2025
-
法規政策 NATO更新AI戰略
北約以AI快速發展為由更新2021年AI戰略,重點確保AI軍事與安全應用的安全性、透明度及責任制,反映AI治理已成為國際安全核心議題。
📚 資料來源:NATO AI Strategy Update, 2025
2025
-
科學應用 AI科學家:自主科研系統
Google的AI Co-Scientist與OpenAI Deep Research相繼問世,能夠自主提出假說、設計實驗、合成文獻,在48小時內獨立重現了科學家花費10年確認的細菌基因轉移機制。
📚 資料來源:Google DeepMind AI Co-Scientist, February 2025
2025
-
架構突破 各大科技巨頭發布代理 AI 願景
各大領先科技公司已將重心轉向打造由「代理(agents)」驅動的單一系統與多系統工作流程,使其更為智慧化。
然而,當各家供應商競相實現其代理化(agentic)的願景時,企業團隊也面臨新的挑戰:這些代理將如何在安全的前提下運作?如何彼此發現並建立連結?如何蒐集所需的情境與數據?以及在供應商的利潤動機、資料孤島、非結構化情境、企業資料、智慧財產權與資安等現實因素交織之下,這些代理又該如何有效協作,將願景轉化為實際成果?
📚 資料來源:State of the Art of Agentic AI Transformation
2024
-
科學應用 Waymo One全自動駕駛計程車商業化
Waymo在舊金山、鳳凰城等城市擴大全自動駕駛(無安全員)計程車服務Waymo One,成為史上首個大規模商業化的Level 4自動駕駛服務。
📚 資料來源:Waymo, Waymo One expansion announcements, 2024
2024
-
法規政策 歐盟《人工智能法案》正式生效
歐盟《人工智能法案》正式成為法律,依風險等級監管AI系統,禁止某些高風險應用(如社會評分),設定全球首個AI監管標準,影響全球AI合規生態。
📚 資料來源:Regulation (EU) 2024/1689, Official Journal of the European Union
2024
-
架構突破 OpenAI o1:鏈式推理模型
OpenAI發布o1系列,採用「思維鏈」強化學習,讓模型在回答前進行更長時間的內部推理,在數學、科學、代碼等複雜推理任務上顯著超越GPT-4。
📚 資料來源:OpenAI, "Learning to Reason with LLMs", OpenAI Blog, 2024
2024
-
生成式AI GPT-4o:實時多模態交互
OpenAI發布GPT-4o("omni"),支持實時語音、視覺與文字的多模態交互,反應速度接近人類對話節奏,展示AI助手的全新互動可能性。
📚 資料來源:OpenAI, GPT-4o announcement, May 2024
2024
-
獎項榮譽 諾貝爾物理學獎:深度學習理論貢獻
傑弗里·辛頓(Geoffrey Hinton)與約翰·霍普菲爾德(John Hopfield)共同獲得2024年諾貝爾物理學獎,表彰其對人工神經網絡與機器學習的基礎性貢獻,為首次因AI研究獲物理學獎。
📚 資料來源:Nobel Prize in Physics 2024, The Royal Swedish Academy of Sciences
-
獎項榮譽 諾貝爾化學獎:AlphaFold蛋白質折疊
哈薩比斯(Demis Hassabis)與朱默(John Jumper)因開發AlphaFold2,與大衛·貝克(David Baker)因蛋白質設計共同獲得2024年諾貝爾化學獎,AI研究首次在同年同時斬獲兩個諾貝爾獎。
📚 資料來源:Nobel Prize in Chemistry 2024, The Royal Swedish Academy of Sciences
2024
-
科學應用 AlphaFold3擴展至所有生命分子
DeepMind發布AlphaFold3,預測能力從蛋白質擴展至DNA、RNA、小分子配體及其相互作用,大幅提升藥物發現的預測能力,DNA相互作用精準度從28%提升至65%。
2023
-
法規政策 歐盟人工智能法案草案通過
歐洲議會通過《人工智能法案》(AI Act)草案,這是全球首部針對AI的全面性立法,依風險等級對AI應用分類監管,對生成式AI提出透明度要求。
📚 資料來源:EU Artificial Intelligence Act, European Parliament, 2023-2024
2023
-
架構突破 AutoGPT——現代AI代理 (AI Agent) 的先驅
AutoGPT於2023年3月30日發布,由電子遊戲公司Significant Gravitas Ltd.的創辦人托蘭·布魯斯·理查茲(Toran Bruce Richards)開發。它是最早廣泛展示GPT-4自主能力的應用程式之一。普遍被視為近代AI代理時代的開端。
📚 資料來源:Agentic AI: AutoGPT, BabyAGI, and Autonomous LLM Agents — Substance or Hype?
2023
-
生成式AI Gemini發布:Google多模態挑戰者
Google DeepMind發布Gemini系列(Nano/Pro/Ultra),原生多模態設計(同時訓練文本、圖像、音頻、視頻),以多項基準超越GPT-4,Google正式全面進入大模型競賽。
📚 資料來源:Google DeepMind, "Gemini: A Family of Highly Capable Multimodal Models", 2023
2023
-
生成式AI LLaMA開源:大模型民主化
Meta開源LLaMA系列大型語言模型,社群在此基礎上快速開發Alpaca、Vicuna等衍生模型,推動開源AI生態系統蓬勃發展,打破大模型研究的算力門檻。
📚 資料來源:Touvron et al., "LLaMA: Open and Efficient Foundation Language Models", arXiv, 2023
2023
-
生成式AI GPT-4:多模態大型語言模型
OpenAI發布GPT-4,支持圖像輸入,在多項學術測試(包括律師資格考試、醫學執照)中達到人類前10%水平,標誌大型語言模型能力的重大飛躍。
📚 資料來源:OpenAI, "GPT-4 Technical Report", 2023
2023
-
理論基礎 「邏輯推理鏈提示法」(Chain-of-Thought Prompting,簡稱CoT)
由韋傑森等人(Wei et al.)於2022年首次提出。這一方法模仿人類的認知過程,在需要多步驟推理的任務中展現出顯著的性能提升。邏輯推理鏈是一種引導大型語言模型(LLM)進行結構化推理的技術,將複雜任務分解為較小的、可管理的步驟。與傳統提示法直接尋求答案不同,CoT鼓勵模型在得出結論之前,先明確表達中間推理步驟,從而顯著提升其執行複雜推理任務的能力。
📚 資料來源:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
2022
-
人機競技 AlphaCode:AI編程競賽達競賽級水平
DeepMind的AlphaCode在程序競賽中達到約50%競賽參與者的平均水平,展示AI在競技編程領域的潛力。
📚 資料來源:Li et al., "Competition-Level Code Generation with AlphaCode", Science, 2022
2022
-
生成式AI Stable Diffusion開源:圖像生成民主化
Stability AI開源Stable Diffusion擴散模型,任何人均可在個人電腦運行文字生成圖像,引發創意AI工具爆發,Midjourney等商業產品隨之興起。
📚 資料來源:Rombach et al., "High-Resolution Image Synthesis with Latent Diffusion Models", CVPR, 2022
2022
-
生成式AI ChatGPT推出:生成式AI大眾化
OpenAI於11月30日推出ChatGPT,5天內突破100萬用戶,兩個月內達1億用戶,成為史上增長最快的消費應用,引爆全球對大型語言模型的熱潮。
📚 資料來源:OpenAI, ChatGPT launch, November 2022
2021
-
生成式AI DALL-E:文字生成圖像
OpenAI發布DALL-E,能夠根據文字描述生成高質量圖像,開啟文本到圖像生成的新紀元,引發創意產業的廣泛討論。
📚 資料來源:Ramesh et al., "Zero-Shot Text-to-Image Generation", ICML, 2021
2021
-
科學應用 AlphaFold 蛋白質資料庫開放
DeepMind與EMBL-EBI合作,公開AlphaFold蛋白質資料庫,覆蓋超過2億種已知蛋白質結構,供全球研究者免費使用,加速藥物研發與疾病研究。
📚 資料來源:DeepMind & EMBL-EBI, AlphaFold Protein Structure Database, 2021
2020
-
理論基礎 神經網絡規模定律(Scaling Laws)
OpenAI發表《神經語言模型的規模定律》,量化模型參數、數據量與計算量的關係,指出增加規模可系統性提升性能,為大模型競賽提供理論依據。
📚 資料來源:Kaplan et al., "Scaling Laws for Neural Language Models", OpenAI, 2020
2020
-
科學應用 AlphaFold2攻克蛋白質折疊難題
DeepMind的AlphaFold2在CASP14競賽中以超過90分的精準度預測蛋白質三維結構,被科學界稱為「50年難題在一下午被解決」,徹底改變生物學研究範式。
📚 資料來源:Jumper et al., "Highly accurate protein structure prediction with AlphaFold", Nature, 2021
2020
-
生成式AI GPT-3:語言模型大爆發
OpenAI發布擁有1750億參數的GPT-3,展示少樣本學習能力,無需針對特定任務微調即可完成翻譯、問答、代碼生成等任務,引發AI規模定律(Scaling Laws)的廣泛討論。
📚 資料來源:Brown et al., "Language Models are Few-Shot Learners", NeurIPS, 2020
2019
-
生成式AI GPT-2:強大文字生成
OpenAI 發布GPT-2,能生成連貫的長篇文章,質量接近人類寫作,引發社會對AI生成虛假信息的廣泛討論,OpenAI最初以安全顧慮為由拒絕完整公開模型。
📚 資料來源:Radford et al., "Language Models are Unsupervised Multitask Learners", OpenAI Blog, 2019
2018
-
獎項榮譽 Geoffrey Hinton等獲圖靈獎
被譽為「深度學習教父」的傑弗里·辛頓(Geoffrey Hinton)、楊立昆(Yann LeCun)與約書亞·本吉奧(Yoshua Bengio)共同獲得2018年度ACM圖靈獎,表彰其對深度學習的奠基性貢獻。
📚 資料來源:ACM Turing Award 2018 announcement
2018
-
架構突破 BERT語言模型:雙向預訓練
Google提出BERT(雙向編碼器表示),採用雙向Transformer預訓練,大幅提升問答、情感分析等NLP任務性能,成為預訓練語言模型的里程碑。
2017
-
架構突破 AlphaGo Zero:無師自通
AlphaGo Zero在不使用任何人類棋譜的情況下,通過純自我博弈訓練,在3天內超越AlphaGo,展示強化學習從零開始達到超人水平的潛力。
📚 資料來源:Silver et al., "Mastering the game of Go without human knowledge", Nature, 2017
2017
-
架構突破 Transformer架構問世
Google Brain團隊發表論文《Attention Is All You Need》,提出Transformer架構,以自注意力機制取代循環結構,成為GPT、BERT等幾乎所有現代大型語言模型的基礎,是近十年最重要的AI架構創新。
📚 資料來源:Vaswani et al., "Attention Is All You Need", NeurIPS, 2017
2016
-
人機競技 AlphaGo 擊敗李世乭
DeepMind的AlphaGo在正式比賽中以4:1擊敗韓國圍棋世界冠軍李世乭(Lee Sedol),震驚棋壇。圍棋被認為是人類智力的終極挑戰,此戰標誌AI決策能力達到全新高度。
📚 資料來源:Silver et al., "Mastering the game of Go with deep neural networks and tree search", Nature, 2016
2015
-
架構突破 TensorFlow 開源發布
Google開源TensorFlow深度學習框架,極大降低AI開發門檻,使全球研究者與企業能快速實驗和部署神經網絡,推動AI民主化。
📚 資料來源:Abadi et al., "TensorFlow: Large-Scale Machine Learning on Heterogeneous Systems", 2015
2014
-
架構突破 生成對抗網絡(GAN)提出
伊恩·古德費洛(Ian Goodfellow)等人提出生成對抗網絡GAN,通過生成器與判別器的對抗訓練生成逼真內容,開創生成式AI的全新範式,後推動圖像生成、深度偽造等領域發展。
📚 資料來源:Goodfellow et al., "Generative Adversarial Nets", NeurIPS, 2014
2013
-
架構突破 Word2Vec詞嵌入模型
Google的米科洛夫(Tomas Mikolov)等人提出Word2Vec,將詞語映射到連續向量空間,捕捉語義關係,成為自然語言處理的基礎表示學習工具。
📚 資料來源:Mikolov et al., "Efficient Estimation of Word Representations in Vector Space", arXiv, 2013
2012
-
架構突破 AlexNet:深度學習革命
辛頓團隊的AlexNet在ImageNet視覺識別大賽(ILSVRC)中以超越第二名10%的壓倒性優勢奪冠,錯誤率從26%降至15%,正式宣告深度卷積神經網絡的壓倒性優勢,引爆深度學習革命。
2011
-
科學應用 Siri語音助手問世
蘋果公司在iPhone 4S發布Siri,成為首個大眾化AI語音助手,開創智能語音交互市場,帶動亞馬遜Alexa、Google Assistant等相繼問世。
📚 資料來源:Apple Inc., Siri announcement, October 2011
2011
-
人機競技 IBM Watson 赢得 Jeopardy!
IBM沃森(Watson)系統在美國益智問答節目《危險邊緣》(Jeopardy!)中擊敗兩位人類冠軍,展示自然語言理解與知識檢索的強大能力,引發廣泛社會關注。
📚 資料來源:Ferrucci et al., "Building Watson: An Overview of the DeepQA Project", AI Magazine, 2010
2006
-
架構突破 深度學習突破:Hinton提出深度信念網絡
傑弗里·辛頓(Geoffrey Hinton)等人提出深度信念網絡(DBN)與逐層預訓練方法,解決深層網絡訓練難題,正式開啟「深度學習」時代,為後來的AI革命奠基。
📚 資料來源:Hinton et al., "A Fast Learning Algorithm for Deep Belief Nets", Neural Computation, 2006
2001
-
科學應用 PageRank與機器學習融合搜尋
Google將統計學習方法融入搜尋算法,展示機器學習在大規模互聯網應用中的商業價值,推動AI走向主流工業應用。
📚 資料來源:Page et al., "The PageRank Citation Ranking", Stanford Technical Report, 1999
1998
-
理論基礎 摩爾定律與算力定律
算力與AI訓練成本持續依摩爾定律下降,使神經網絡訓練在經濟上逐步可行,為日後深度學習爆發奠基。
📚 資料來源:Moore, "Cramming more components onto integrated circuits", Electronics, 1965
1997
-
架構突破 長短期記憶網絡(LSTM)提出
霍克賴特(Sepp Hochreiter)與施密德胡伯(Jürgen Schmidhuber)提出LSTM,解決了循環神經網絡(RNN)的梯度消失問題,成為序列數據處理的核心架構,廣泛應用於語音識別與機器翻譯。
📚 資料來源:Hochreiter & Schmidhuber, "Long Short-Term Memory", Neural Computation, 1997
1997
-
人機競技 深藍擊敗西洋棋世界冠軍
IBM「深藍」(Deep Blue)在正式比賽中以3.5:2.5擊敗世界棋王加里·卡斯帕羅夫(Garry Kasparov),成為AI在智力競技中首次勝過人類世界冠軍,震驚全球。
📚 資料來源:IBM Research, "Deep Blue", 1997; Campbell et al., Artificial Intelligence, 2002
1989
-
架構突破 卷積神經網絡(CNN):LeNet
楊立昆(Yann LeCun)等人提出LeNet卷積神經網絡,成功應用於手寫數字識別,成為現代深度學習與計算機視覺的開創性工作。
1986
-
架構突破 反向傳播算法普及
魯梅爾哈特(Rumelhart)、辛頓(Hinton)與威廉姆斯(Williams)在《自然》期刊發表論文,系統闡述反向傳播算法用於多層神經網絡訓練,重燃神經網絡研究熱情。
📚 資料來源:Rumelhart, Hinton & Williams, "Learning Representations by Back-Propagating Errors", Nature, 1986
1980
-
科學應用 專家系統商業化:XCON
迪吉多公司(DEC)推出XCON(Expert Configurator),首套商業化專家系統,用於自動選擇電腦零件配置,開啟知識工程與專家系統的商業應用浪潮。
📚 資料來源:McDermott, "R1: A Rule-Based Configurer of Computer Systems", Artificial Intelligence, 1982
1970
-
架構突破 反向傳播算法提出
布萊森(Arthur Bryson)與何毓琦(Yu-Chi Ho)在控制論領域提出反向傳播算法(Backpropagation)的早期形式,後成為訓練多層神經網絡的核心算法,直至2000年代才廣泛應用。
📚 資料來源:Bryson & Ho, "Applied Optimal Control", 1969; Werbos, 1974
1969
-
科學應用 Shakey機器人:首個推理型移動機器人
斯坦福研究院(SRI)開發Shakey,這是第一台能夠自主推理、感知環境並規劃動作的移動機器人,被視為現代AI機器人研究的里程碑。
📚 資料來源:Nilsson, "Shakey the Robot", SRI Technical Report 323, 1984
1969
-
理論基礎 感知器局限性揭示
明斯基與帕珀特(Seymour Papert)出版《感知器》,數學上證明單層感知器無法解決 XOR 等非線性問題,引發第一次「AI寒冬」,大幅削減神經網絡研究資金。
📚 資料來源:Minsky & Papert, "Perceptrons: An Introduction to Computational Geometry", MIT Press, 1969
1965
-
架構突破 ELIZA聊天程式發布
麻省理工約瑟夫·魏森鮑姆(Joseph Weizenbaum)開發ELIZA,模仿心理治療師對話,是早期自然語言處理程序,揭示人類對機器對話的心理投射傾向。
📚 資料來源:Weizenbaum, "ELIZA—A Computer Program for the Study of Natural Language Communication", CACM, 1966
1958
-
理論基礎 LISP語言發明
約翰·麥卡錫發明LISP(List Processor)程式語言,成為AI研究的標準編程工具,其符號處理能力對早期AI開發至關重要,沿用數十年。
📚 資料來源:McCarthy, "Recursive Functions of Symbolic Expressions", CACM, 1960
1957
-
架構突破 感知器(Perceptron)模型
弗蘭克 · 羅森布拉特(Frank Rosenblatt)提出感知器模型,這是第一個可實際訓練的單層神經網絡,能夠從資料中學習分類,是深度學習的遠祖。
1956
-
理論基礎 達特茅斯會議:AI正式誕生
約翰·麥卡錫(John McCarthy)等人在達特茅斯學院召開首屆人工智能研討會,正式提出「人工智能」(Artificial Intelligence)一詞,宣告AI作為獨立學科誕生。
1951
-
架構突破 首個神經網絡機器SNARC
馬文 · 明斯基(Marvin Minsky)與迪恩·埃德蒙茲(Dean Edmonds)建造SNARC,世界首台模擬神經網絡的電子計算機,由3000個真空管模擬40個神經元。
📚 資料來源:Minsky, SNARC project, Princeton, 1951
1950
-
理論基礎 圖靈測試提出
圖靈 (Alan Turing) 在論文《計算機器與智能》中提出著名的「圖靈測試」,以機器是否能欺騙人類評審定義機器智能,至今仍是AI哲學的核心議題。
📚 資料來源:Turing, "Computing Machinery and Intelligence", Mind, 1950
1945
-
理論基礎 馮·諾依曼架構提出
約翰 · 馮 · 諾依曼(John von Neumann)提出存儲程序計算機架構,奠定現代通用計算機基礎,使AI計算成為可能。
📚 資料來源:Von Neumann, "First Draft of a Report on the EDVAC", 1945
1943
-
架構突破 人工神經元模型(MCP模型)
麥卡洛克(Warren McCulloch)與皮茲(Walter Pitts)提出第一個數學神經元模型,模擬生物神經元工作方式,開創神經網絡研究先河。
📚 資料來源:McCulloch & Pitts, "A Logical Calculus of Ideas Immanent in Nervous Activity", 1943
1936
-
理論基礎 圖靈機理論提出
英國數學家艾倫·圖靈(Alan Turing)發表論文《論可計算數》,提出「圖靈機」抽象計算模型,奠定現代計算機科學與AI理論基礎。
📚 資料來源:Turing, "On Computable Numbers", Proc. London Math. Soc., 1936
1921
-
理論基礎「機器人」一詞誕生
捷克劇作家卡雷爾·恰佩克(Karel Čapek)在科幻劇作《羅素姆的萬能機器人》中首次使用「Robot(機器人)」一詞,為人工智能概念奠定文化基礎。