(Google資深研究員Jeff Dean;圖片由世紀奧美公關顧問公司提供)
今天(11/28)上午Google在日本東京舉辦 Made With AI 亞太區媒體活動,並在Google台北辦公室進行同步連線。活動請來帶領Google Brain研究團隊的資深研究員Jeff Dean,以及Pixel相機產品經理Isaac Reynolds、Google語言研究計畫總經理Linne Ha、Google Assistant總經理Pravir Gupta、Google研究團隊産品經理彭浩怡等人向大家介紹Google如何讓人工智慧落實在生活各個環節中。
因為機器學習的長足進步,圖像辨識與自然語言處理的高度開發之下,現在Google翻譯推出Word Lens功能,只要將手機鏡頭對準看不懂的外國路標或菜單,Google就能自動轉化成自己看得懂的語言,使出國旅行更加方便。
現在AI已較能掌握文字的真正意思,並能預測要如何回覆。為了方便手機族,Google透過機器學習得知哪些回覆是合理的;如此一來,機器會提供幾個建議的回覆讓人點選,使留言的回覆更有效率。據統計,現在12%的回覆都已自動化。另外,超過10億支的Youtube影片已能支援10種語言的自動上字幕功能,其正確率較過往提高50%左右,大大嘉惠聽障朋友。
而運用在Pixel相機上,即便手機的相機沒有足夠長的鏡頭、難以處理相片的景深,但透過機器學習,相機能算出如何呈現景深,自動模糊背景。運用在聲音處理上,Google Home Max除了打造高品質的音響,還能透過訓練使之依房間的形狀選擇最好的擺放位置,並隨著室內陳列去調整音波的釋出,優化整體的音效呈現。
以「神經網路」的數學模型訓練,讓輸入的資料進行一系列的處理步驟,透過海量的相關資訊,讓模型慢慢找到資料的規律;最後,即便資料沒有標籤,透過自行學習而得的規律,模型仍能進行辨認。
利用類似的訓練架構,Google推出一套可自行設計神經網路的機器學習模型:AutoML。其原理是建立一組可推導出上千個子模型架構 (child model architecture)的控制組網路 (controller network);透過眾多的任務訓練,從中找出執行效率最好的子模型。之後,透過強化式學習 (Reinforcement Learning Approach) 讓控制組網路的子模型訓練能力變得越來越好。最後,控制組網路就能學習如何建構出好的模型。
也就是說,人們可以讓機器自行創造工程師,由AI工程師去製造出更好的子模型以供人類應用。其實,由AutoML產出的模型比人類做的模型還要精準,開發成本也降低。