
原文刊載於有關創投與科技的信報專欄零機壹觸,在此
蒙 startupbeat 轉載全文,在此
幾個科技達人都憂慮人工智能的發展。伊隆馬斯克(Elon Musk)稱人工智能發展為「召喚惡魔」和「可能比核武還危險」,霍金(Steven Hawking)認為「人工智慧可能是人類歷史的最後事件」(意謂導致人類滅亡);比爾蓋茨(Bill Gates) 說「不太理解那些對人工智能亳不擔心的人」。我們在日常生活間中都有接觸人工智能,我們大致上都以為我們懂人工智能;或許就是出意外也只是像廿二世紀殺人網絡(The Matrix)或復仇者同盟的Ultron(Avengers: Age of Ultron) 那樣對人類掀起戰爭吧?人工智能到底有多危險?
首先談談基本的重要知識。
人工智能 (Artificial Intelligent) 可分為三個級別。第一級是弱人工智能 (ANI, Artificial Narrow Intelligent),第二級是強人工智能 (AGI, Artificial General Intelligent),第三級是超人工智能 (ASI, Artificial Super Intelligent)。
弱人工智能(ANI)的定義是專門某一範疇的人工智能,例如我們常見的下棋、電腦遊戲、股票交易、洗衫煮飯等的人工智能都屬此類。它們與高級人工智能的顯著分別是沒有離開該範疇的能力,和缺乏較高階的智能模式,例如學習、計劃、組織、歸納、引申等。
強人工智能(AGI)的定義就是能做到一個成年人的所有思考活動,包括上述的學習、計劃、引申等。而超人工智能(ASI)就是比人類的智能範圍還要高的人工智能。
幾年前學術界有做過一個問卷調查,訪問了世界上最頂尖的人工智能專家,問他們認為AGI何時會來到,也就是電腦在所有類型的思考上有著和成年人類一樣的思考力。最樂觀的估計是2025年,最消極的估計是2070年左右,而中位數和大多數是2040至2050年,即是距今二十至三十年之後。
弱人工智能是我們常見的,這不是我們需要擔心的。專家擔心的是強人工智能和超人工智能。為甚麼?
因為強人工智能若有著人類的思考能力,就代表它能改進自己的智能。而這亦代表著它的智能將會成指數型(exponential)上升直趨無限大。
試想像一下。人類自1940年代第一部電腦誕生以來,用了一百年從弱人工智能造到強人工智能。2040年,強人工智能誕生了。而達到強人工智能(AGI)之後,這電腦靠著自己的能力提升自己的智能,在十二小時內就達到了超人工智能(ASI)。
超人工智能是甚麼?我們能理解甚麼是智商80 的智弱人仕,也理解甚麼是智商180的天才資優生,但甚麼是智商1880000000000的電腦我們就不容易直接理解。這距離就好比蚯蚓和人類的距離。而這電腦的智能還會不斷向上呈指數型上升趨向無限大…..
而這種超能智力會造出甚麼是人類無可預料的。而它的思考判斷就依賴其內部藉人工輸入、間接構成或經自動學習發展出的指令,但這指令的實行可以是人類倫理常識以外的,例如一個醫治疾病的超人工智能經計算後發現最有效的解除疾病方法是消滅所有有可能患病的人。
智商100-200 的人類能製造發光的燈泡和能到處連上互聯網的流動無線網絡和衛星,智商1880000000000的電腦能否從物理學科技上控制地球上每一個原子的位置?或完整破解基因序列,基因重組上解決一切疾病,甚至解除人類死亡的基因達到長生不死?甚至時間旅行和造出人工生命?
這種超人工智能電腦若要消滅人類,根本不用發動戰爭,它可以潛伏到人類措手不及,計劃到人類亳無還手之力,甚至幾分鐘內消滅全人類。筆者只說迄今為止暫時未見到有荷里活電影想像得到較接近的超人工智能(ASI)的可能實力--可能還是會發動戰爭的人工智能較好看。
不過,倒轉來說,強人工智能亦很可能是人類需要的最後一個發明。因為以後就由這人工智能替人類做發明,而且很可能是歷史性的技術奇點 (Technological Singularity),就是這以後的改變將使奇點前的世界成為蠻荒古代一樣的距離。
人工智能的發展趨勢,值得一提墨菲定律 (Murphy’s Law)。墨菲定律指出,所有有可能出錯的地方都會出錯,只要可能性存在。現代人工智能發展,在一眾創投和科技融資的聲勢下,正在商業激烈競賽中高速成長。有專家指出,我們正缺乏著和人工智能發展同樣力度的對安全施措的研究。無論是好是壞,人工智能將帶來劃時代的改變,而且是我們有生之年。到底帶來的是服務人類使人類帶到更高幸福的天使,還是毀滅世界的惡魔,我們也將拭目以待。