AlphaGo贏的關鍵 自我對弈學習錯誤

Google旗下DeepMind公司開發的人工智慧系統AlphaGo以4比1挑戰韓國圍棋天才李世?成功,

嫩白面膜

,系統主要開發者黃士傑今指出,

緊緻面膜

,AlphaGo每天會跟自己下棋,

黑糖磚

,強化分析能力。來自台灣的黃士傑目前在總部設於倫敦的DeepMind擔任資深研究員,

凍齡

,也是AlphaGo的主要程式開發者。AlphaGo與李世?進行5場人機對弈,

黑糖家黃金梅心棒棒糖

,拿下4比1成績,

高級禮盒

,都是由黃士傑負責在現場替AlphaGo擺棋。黃士傑今天出席「AlphaGo解密」人機對弈賽後媒體聚會時表示,

安達

,AlphaGo會變得這麼厲害,是因為有子網路跟策略網路,其中策略網路從大約20萬到30萬的人類棋譜學習,減少搜尋廣度;子網路則在搜尋進行到某種程度時,判斷現在誰處於優勢,可減少搜尋深度。黃士傑解釋,透過策略網路和子網路,可以將盤面資訊擷取到可以處理的範圍,讓AlphaGo分析出目前最佳的10到20步棋。他也透露,AlphaGo每天都自己跟自己下棋,讓子網路透過自我對弈成長,從錯誤中學習,因為AlphaGo不會累,每天「下幾百萬盤都沒問題」,這是子網路這麼強大的關鍵。黃士傑強調,AlphaGo進步的關鍵在於深度學習,若少了策略網路與子網路,就會大大降低棋力,這2大網路加入後,搜尋效能大幅提高,不過團隊一開始也不確定能否成功,也有很多失敗的經驗。對於外界顧慮太聰明的人工智慧系統最終可能反噬人類,黃士傑表示,這是很多人討論的問題,DeepMind與其執行長也非常重視,不過Google有成立倫理委員會,負責評估人工智慧造成的影響,他相信人工智慧系統是中性的,科技沒有好壞,端看人怎麼使用。黃士傑說,AlphaGo的下一步還在討論中,DeepMind另有團隊計畫將人工智慧系統發展到醫療應用,例如可透過大數據分析病症,但該專案不是由他負責,他並不清楚具體內容。對於台灣人工智慧人才的建議,黃士傑表示,台灣很多教授與研究人員實力不輸國外,不過國外研究員的企圖心很強,雖然都是離鄉背井,但是心理上很積極,跟台灣不太一樣。他建議台灣研究人才從小培養英文聽說能力,到了有機會出國做研究的時候,就可以很順利跟各國人才溝通。1050318(中央社),

本篇發表於 未分類 並標籤為 , , , , , , 。將永久鍊結加入書籤。

回應已關閉。