分裂是人工智能領域的核心。自成立以來,該領域已被兩個相對的哲學之間的智力拔河所定義:連接主義和象征主義。對于如何“解決”智力問題,這兩個陣營有著截然不同的看法,研究議程各不相同,有時還存在痛苦的關系。
如今,連接主義統(tǒng)治著AI世界。深度學習的出現(xiàn)是一種典型的連接主義技術,它在過去十年中推動了AI活動和資金的全球爆炸式增長。深度學習的最新成就令人驚訝。然而,隨著深度學習的普及,其局限性越來越明顯。
如果人工智能要充分發(fā)揮其潛力,就必須在連接主義和象征主義之間達成和解。值得慶幸的是,在學術和商業(yè)環(huán)境中,融合這兩種傳統(tǒng)上對立的方法的研究工作已經(jīng)開始出現(xiàn)。這樣的綜合很可能代表了人工智能的未來。
AI的符號方法試圖構建通過操縱直接映射到概念(例如,單詞和數(shù)字)的符號來智能運行的系統(tǒng)。同時,連接主義方法通過互連的處理單元的大規(guī)模網(wǎng)絡(通常稱為神經(jīng)網(wǎng)絡)來表示信息并模擬情報,而不是通過符號來明確表示。
在許多方面,聯(lián)系主義和象征主義代表著彼此的陰陽:每種方法都有核心優(yōu)勢,而其他優(yōu)勢則是重要的弱點。神經(jīng)網(wǎng)絡根據(jù)所饋送的數(shù)據(jù)發(fā)展出靈活的,自下而上的直覺。他們數(shù)以百萬計的相互連接的“神經(jīng)元”使他們對輸入的等級和歧義高度敏感。它們的可塑性使他們能夠根據(jù)新信息進行學習。但是,由于神經(jīng)網(wǎng)絡不是由人類明確編程的,因此它們是“黑匣子”:通常不可能用對人類有意義的術語來查明為什么他們做出自己的決定。缺乏可解釋性是在高風險的實際環(huán)境中廣泛使用連接主義方法的根本障礙。
符號系統(tǒng)不存在此問題。由于這些系統(tǒng)使用附加了離散含義的高級符號進行操作,因此它們的邏輯和內部工作方式是人類可讀的。折衷是符號系統(tǒng)更加靜態(tài)和脆弱。當遇到未明確編程處理的情況時,它們的性能往往會下降?,F(xiàn)實世界是復雜而異質的,充滿了模糊定義的概念和新穎的情況。象征性AI不適合應對這種復雜性。
在成立之初,人工智能領域就以象征主義為主導。作為一門嚴肅的學科,人工智能的歷史可以追溯到1956年夏天,當時一小群學者(包括諸如克勞德·香農(Claude Shannon),馬文·明斯基(Marvin Minsky)和約翰·麥卡錫(John McCarthy)之類的未來人工智能偶像)在達特茅斯組織了一個為期兩個月的研究工作坊。學院。從那個夏天起該小組的原始研究建議就可以明顯看出,這些AI先驅者的智能概念是以符號理論和方法為中心的。
在整個1960年代到1970年代,象征性的AI方法占據(jù)了主導地位。著名的早期AI項目(例如Eliza和SHRDLU)就是說明性示例。這些程序旨在使用自然語言(在精心規(guī)定的參數(shù)范圍內)與人類互動。例如,SHRDLU可以成功回答諸如“金字塔后面是否有大塊?”或“盒子包含什么?”之類的人類查詢。
與此同時,具有象征意義的AI研究顯示出希望的早期跡象,同時探索戲劇化的連接主義通往AI道路的新生努力也被關閉了。1969年,為了響應對人工神經(jīng)網(wǎng)絡的早期研究,領先的AI學者Marvin Minsky和Seymour Papert出版了具有里程碑意義的著作《Perceptrons》。這本書提出了數(shù)學證明,似乎證明了神經(jīng)網(wǎng)絡不能執(zhí)行某些基本的數(shù)學功能。