今天科技業界發生一件有趣的大事,就是由 Google 的 AlphaGo 人工智慧與韓國棋士李世石的世紀對決,無論今天最終是人類獲勝或是電腦獲勝,都是相當值得玩味的。不同於當年 IBM 深藍超級電腦與俄羅斯國際象棋棋王卡斯帕羅夫的對決, AlphaGo 是以更新穎的機械神經網路架構的深度學習系統所打造的人工智慧,變數也會更多。
過去的人工智慧是在系統所預設的邏輯內找尋對應方式,故需要給予超級電腦足以應對各種情況的邏輯庫,它才能夠持續變強,但問題在於過去的人工智慧只是按表操課,宛如早期的遊戲的 AI 一樣會有規律與破綻,也就是會有一定的套路。
這個部分在去年 NVIDIA GTC 時, Google 的資深科學家暨工程師 Jeff Dean 在主題演講就介紹過深度學習系統的魅力;在新的深度學習系統,人工智慧不再是從資料庫中撈對應的資料,而是餵給它大量素材,並告訴它素材所代表的意義,系統會去分析素材的共同元素,並自行建立邏輯,在面對新的資訊時透過建立的邏輯去判斷。
當時 Jeff Dean 舉的例子也很簡單易懂,當時利用 Google 所開發的深度學習系統試玩 Atari 的一系列經典遊戲,例如打磚塊,一開始只讓系統知道怎麼操作、遊戲的原則,讓系統自行試玩,一開始系統當然很笨,就跟剛接觸遊戲的新手一樣只知道要追著球跑,不過隨著玩的時間越長,系統持續修正邏輯之後,恐怕少有人類玩家能夠達到那樣的水準。
Google AlphaGo 也就是這樣的一套系統,透過學習基礎的圍棋理論,不斷進行實戰驗證,而後持續使邏輯加強,使其邏輯日益完整;雖然以現在人工智慧系統的演算力其實與真實人類還有明顯的落差,但是相較於人類的大腦需要處理生活種種事物,系統僅需針對單一的事情進行處理,也不受身心狀況影響,故更可做出正確的判斷。