
人工智能中心
資訊 Information
分析 Analysis
反省 Reflection
教育 Education

Kay Firth
Butterfield
我們需要了解人工智能演算法的「思考」過程。

Safiya Umoja Noble
資訊壟斷對民主構成威脅。

Air Force Col. Tucker "Cinco" Hamilton
AI 不是可有可無的,也不是一時的潮流;AI 正在永久地改變我們的社會與軍事。我們必須面對一個 AI 已然存在並正在改變我們社會的世界。同時,AI 也非常脆弱——也就是說,它很容易被欺騙或操控。

Cathy O'Neil
數據洗白。這是一個過程:科技人員將醜陋的事實藏在黑箱演算法內,並聲稱這些演算法是客觀的、是基於擇優原則的。然而,這些演算法事實上卻是秘密的、影響重大的,並且具有破壞性。

Kevin Roose
決定是否取代工人的,是企業高層,而不是演算法。

Ilya Sutskever
凡是我能學習的、你們任何一個人能學習的,AI 也能做到。那我們怎麼知道這點呢?…… 因為我們有一顆大腦,而大腦是一部生物電腦。那麼,為什麼數碼電腦、數碼大腦不能做到同樣的事呢?

人工智能
名言堂
值得我們
認真思考
的說話

Flynn Colemann
科技不是我們要害怕的,而是人。

Yuval Noah Harari
我們剛剛在地球上遭遇了一種外來的智能。我們對它所知不多,只知道它可能會毀滅我們的文明。我們應當立即停止在公共領域中不負責任地部署 AI 工具,並在 AI 規管我們之前先規管它。而我建議的第一條規範,就是強制 AI 必須揭露自身為 AI。

Flynn Colemann
It's not technology we have to fear, it's people.

Stephen Hawking
AI 很可能會成為人類歷史上 最好或是最糟的事。

Issac Asimov
現今生活可悲的一面,是科學 累積知識的速度,比社會累積智慧的速度還要快。

Ivana Bartoletti
我們已經內化了一種觀念,認為沒有任何事物比「資料」更客觀、中立、具資訊性且更有效率。但這其實是誤導。當一個演算法被輸入資料時,決策早已做了:某人已經決定哪些資料應該被選入、哪些不應該。而如果所謂的資料其實就是人們,那麼我們當中有些人已被選中,而另一些人則被沉默了。

Karen Hao
這些「AI 帝國」最大的威脅,就是侵蝕民主。因為如果世界上大多數人開始覺得自己不再有自主決定的能力,民主便無法再運作。民主的根基在於:我們都有權利、都有聲音、都應該走進投票站,感覺自己能對集體的未來說出一份意見。這些「AI 帝國」最大的威脅,就是侵蝕民主。因為如果世界上大多數人開始覺得自己不再有自主決定的能力,民主便無法再運作。民主的根基在於:我們都有權利、都有聲音、都應該走進投票站,感覺自己能對整體的未來說出一份意見。

Timnit Gebru
多元性之所以在 AI 領域格外重要,不僅是因為數據需要多元,研究者本身也需 要多元,是因為你需要那些對事情的現狀有社會觸覺的人。

Amit Ray
隨著愈來愈多人工智能進入世界,領導者也必須注入愈來愈多的情緒智慧。

Demis Hassabis
其實,面對這種具有顛覆性的科技,我們並不會真正知道將發生什麼事。因此,我認為沒有人能精準地 …… 為 AGI 的風險標上一個確切的機率。我所知道的是:這個風險並不是零。而即使最終發現這個機率非常小,我們仍應該現在就開始準備 …… 並努力更準確地判斷這個風險究竟是什麼。這個議題絕對值得討論,也值得非常謹慎地研究。








