機器學習科技在其本質上就比手工編碼系統更晦澀難懂,就算對于計算機科學家亦是如此。當然,這并不是說将來所有的AI技術都将變得難以理解,我們隻是提出在本質上,深度學習本身就是一個神秘的黑匣子。
僅僅深入看看深度神經系統裡到底是什麼是不足以弄清它的工作原理的。一個網絡的推理運算包含于成千上萬個模拟神經元的行為之中,再被分配至幾十個,甚至是幾百個錯綜複雜的内部聯結層級之中。神經元是接收輸入信息的第一層。比如一張圖片的像素亮度首先發送至神經元,接着才會執行運算,輸出新信号。輸出信号将流入複雜的網絡,傳送至下一層級的神經元。如此周而複始,直到機器完成輸出。在此期間,單獨的神經元會糾正其運算以求最好的輸出結果,因此這一過程也被稱為“反向傳播”。
一個深度網絡中的不同層級可以在不同的抽象級别上識别事物。如果是一個專為識别狗的系統,那麼最低層次就負責識别最簡單的特征,例如狗的輪廓或是顔色;高級一些的層次就負責識别略為複雜的特征,比如毛發和眼睛等;最後,最高層次就負責鑒定狗的品種。簡單來說,這種做法就可以應用于别的機器輸入,自學人類經驗,例如演講的聲音、書信中的語言文字或者汽車行駛時該如何操作方向盤。
當然,已經有人用獨創的戰略設備試圖捕獲機器運行的步驟,以更詳細地解釋系統運行時到底發生了什麼。2015年是,的研究員修繕了某個建立于深度學習的圖像識别算法,之後,這一算法不僅能簡單地在照片中定位物品,更能直接生産物品或者改變物品。通過反向運行算法,研究員們得以理解這一程序如何識别照片上的物體。以照片上的小鳥和建築舉例,在這個名為“深度夢境”(Deep Dream)的工程最終顯示的圖像上,形似外星人的動物逐漸從雲端與植被中顯現,夢幻模糊的佛塔漸漸透過森林和山脈躍然紙上。這些圖像證明了,深度學習也并不一定全是高深莫測的,的研究員就成功地解密了這些熟悉的圖像是如何被識别的。不過這些圖像也同樣在預告我們深度學習與人類認知的巨大差距,這樣一來,人們甚至可能忽略人工智能産生的一些結果。的研究員注意到,當算法繪制出一幅啞鈴的圖像,它也同時繪制出了舉起啞鈴的手臂。因為在機器看來,手臂已經是啞鈴的一部分了。
借着神經科學和認知科學的助力,人工智能再進一步。美國懷俄明州立大學的助理教授Jeff Clune帶領了一個小隊,用光學錯覺等效人工智能來測試深度神經網絡。2015年,Clune的團隊發現一旦圖像采用了機器系統正在搜尋的低級的模式,神經網絡就會被這些圖像欺騙,接收到根本不存在的信息。Clune的合作人Jason 同樣建立了用以探測大腦的工具。這一探測工具旨在監測神經網絡中央的一些神經元,從中找出到底是哪些圖像最能刺激神經。研究發現,圖像大多是抽象的(比如印象派畫風的火烈鳥,或者校車之類的),這也進一步證明了機器感知能力的神秘性。
(圖為1960年,早期的人工神經網絡處理燈光傳感器的輸出流程,位于紐約水牛城康奈爾航空實驗室)
然而,對于人工智能的“思考方式”,僅僅管中窺豹遠遠不夠。深度神經網絡中運算程序的交互作用才是高級認知和複雜決策的關鍵因素,然而這些運算對于數學方程和變量卻宛如泥沼。“假如隻是一個很小的神經網絡,你可能能夠搞懂它到底是如何運作的,”表示,“但是一旦這個神經網絡相當大,比如說它有上百個層級,每層又由上千個單元組成,那麼要搞懂它就顯得有些天方夜譚。”
和MIT教授 的辦公室毗鄰,長久以來緻力于将機器學習應用于醫藥。幾年前,43歲的被診斷出患有乳腺癌。當然,這一診斷結果的本身的确不是什麼好事,但讓更沮喪的是如今前沿的數據統計系統和機器學習方法都不足以解決這些腫瘤的疑難雜症,也不能有效指導治療。她認為人工智能有巨大的潛力變革目前的醫藥學,但是要開發這種潛力,人們不能隻局限于用機器學習記載診療記錄。設想可以更大程度上使用這些原始數據,顯然她認為這些數據在目前都還沒有被物盡其用:“想想看我們擁有多少大數據,多少有關病理的大數據?”
去年,在結束了癌症療程後,和她的學生與麻省綜合醫院的醫生們聯手開發了一種系統,能夠通過挖掘病理學報告來識别有特殊臨床表現的病人,供研究者研習。然而,也同樣認識到,系統在運作時需要給出合理的解釋。之後,她與和另一名學生又進一步完善系統,使其能夠摘取并且突出顯示病理報告中具體表明特殊臨床表現的文字片段。和學生還開發了另一種深度學習算法,能在乳房X線圖像中探測出乳腺癌的早期征兆。現在她們正在緻力于讓系統能夠解釋其工作原理。“人類和機器必須得聯手工作,相互提升。”認為。
美國軍方已經投資數十億用于機器學習項目,力圖在将來可以操控汽車和飛行器,識别目标,從海量智能數據中篩選重要數據分析。不同于其他領域,軍方運用算法時不允許容忍任何無法解釋的程序,所以美國國防部在研究機器學習時,如何确認機器的可解釋性成為一大難題。
DARPA開發的戰鬥機器狗
美國國防部高級研究計劃局(DARPA)的項目經理David 目前正在監測一項名為“可解釋性人工智能”的項目。曾經參與監測了Siri的開發項目,而如今他已經白發蒼蒼。他說,自動化已經不知不覺地覆蓋了軍事項目中不計其數的領域。目前,人工智能分析師正在嘗試用機器學習鑒定海量監控數據中的模式。各種各樣的自動化汽車或飛行器正在被陸續開發、測試。然而,沒有士兵會喜歡一輛不知其原理的自動機器人坦克,當然,分析師也不可能在不知原因的狀況下就對機器給出的信息做出相應反應。“機器學習系統給出錯誤警報是一件很常見的事,所以軍事分析師必須借助系統做出的解釋才能決定是否做出反應。”解釋道。
David
今年三月,DARPA從學界和行業中挑選出了13個項目進行資助,隸屬于監測的項目之下。這13個項目中,有些可以建立在華盛頓大學教授 的工程之上。和他的同事已經研究出解決方案,讓機器學習系統為輸出結果提供合理的解釋。因此,通過這一解決方案,能夠自動從數據中找到案例的機器人就能同時給出運作原理。比如用以識别恐怖分子郵件的機器系統是通過數百萬的郵件學習後才能得出結論。在使用的方法後,機器系統還能夠在郵件中标出關鍵詞。此外,的團隊還設計出了另一種方法,讓圖像識别系統突出強調圖像中最重要的部分,以此解釋其工作原理。
然而,這一方式和其他類似的方式,諸如研發的方法一樣,都有同樣的缺陷——系統提供的解釋過于簡單,在傳送過程中極有可能丢失重要信息。“理想境界”是一旦AI和人類對話,它就能提供解釋。顯然,我們還沒做到完美。”表示,“距離最後目标,我們還有很長的路要走。”
不止是癌症診療或是軍方決策這種高風險領域,人工智能能否為決策提供解釋對于科技發展為人類日程生活中的一部分至關重要。Tom 在蘋果公司帶領Siri的研發團隊,他說,“解釋性”至關重要,隻有理解才能讓Siri變為更智能,更高效的語音助手。目前并不想透露未來Siri将如何發展,但很顯然,任何一個人在接受Siri的附近餐廳推薦時都想知道它推薦的原因是什麼。作為蘋果公司AI研究的主管及卡耐基梅隆大學的副教授, 将“解釋性”視為将來人類與智能機器關系發展中的核心。“隻有能夠解釋才能擁有相互信任。”他說。
然而,就連人類也有很多行為不能解釋,人工智能可能同樣如此。“就算有個人能夠相對合理地解釋(他/她的行為),這種解釋也可能是不完整的,所以人工智能也會有這種狀況,”Clune認為,“可能這就是所謂‘智力’吧,僅有一部分能夠給出合理解釋,而另一部分或是直覺,或是潛意識,或是神秘莫測。總之難以訴諸言表。”
如果的确如Clune說的那樣,那麼或許我們隻能選擇要麼相信AI的決策,要麼抛棄AI。當然,AI的決策在發展時必須和社會步調相吻合。就如人類社會建立在某種看不見的契約之上,我們設計的AI系統也必須尊重、符合我們的社會準則。一旦我們要設計出機器坦克或是“死刑機器”,我們必須保證他們的決策吻合于我們的道德體系。
為探究這些形而上學的概念,我也去塔夫斯大學會見了 教授。是一位赫赫有名的哲學家以及認知科學家,如今在研究人類的意識及思想。最近出版的關于人類意識的百科專著《從細菌到巴赫,從巴赫到細菌》(From to Bach and Back)中的某個章節提到,智力在進化過程中一個非常自然的階段就是演化出了某種體系可以執行連自己都無法解釋的行為。“而問題在于,人類應該如何自我調節以做出最明智的抉擇,我們對于自我的标準應該定在哪裡?對于‘智能’的标準又在哪裡?”在那個位于田園牧歌般的大學校園裡,的辦公室顯得有些雜亂。他如是對我說道。
對于科學家們對“可解釋性”孜孜不倦的追求,他也提出了警示。“我認為,如果總有一天我們必須運用這些技術,并且生活将依靠于這些技術,那我們一定要盡可能了解這些技術給出的方案背後的原因和原理。”他說道。然而,鑒于我們至今都不能給出一個完美的解決方案,我們依然要對AI給出的解釋也抱有警惕,就算是再智能的機器也同樣如此。
“如果機器無法和我們一樣給出決策的原因,”他說,“那麼不要相信它。”
有話要說...