看過「CSI:犯罪現場」或「犯罪心理」(Criminal Minds)等美國犯罪調查影集的人,應該都對劇中能把影像不斷放大、清晰的技術不陌生,雖然這種技術一直離現實世界很遠。
Google最新發表的人工智慧(AI)卻實現了這個夢想,能將原來只有8x8大小的圖像解析度放大16倍,並有效修復遺失的資料。
這套新技術主要運用兩套神經網路。一套神經網路可以提高模糊化或馬賽克化的臉孔圖像解析度,類似技術已應用在房屋內裝的影像上。另一套神經網路是把8x8的圖像解析度,提高成32x32。
Google研究員形容這種方式,就像是由神經網路「幻想」出額外的資訊。
Google透過讓系統觀看無數張臉孔圖像來訓練,以學習人類臉部特徵的基本典型。同時,另一套神經網路系統則聚焦於把8x8像素的圖像、和所有可能類似的32x32像素影像放在一起比較。
這兩套神經網路有效配合在一起,就能重繪出它們對原始臉孔圖像應有樣子的最佳猜測。Google這套系統會比過去直接放大16倍、再模糊邊緣的做法有很大進步。Google的系統會辨識圖像上臉孔的可能五官,再重繪出圖像。雖然執法人員可能無法利用這套系統從車牌反射描繪出犯人的長相,但這或許有助警方揣測出嫌犯長相的具體模樣。
當然,這套系統也是無法無中生有。雖然這套系統能透過學到的人類臉孔,大致猜測出長相,但有時候資訊可能不足到無法重繪出一張與原始圖像相似的臉,甚至少到拼不出一張人類的臉。不過,這套系統的功效還是很好,製造的圖像約有10%會讓人誤以為是原始圖像。
若將同樣系統用在房屋內裝影像上,試驗成果又更好,約30%受試者無法正確挑出原始圖像。若這個比率能超過50%,就代表這個系統製造的影像假可亂真。
雖然這套系統是屬於影像處理的極高技術,但也為較傳統的影像壓縮展現出極具前途的未來。Google今年1月宣布,將運用一種AI學習式的方法,將Google+上的圖像壓縮成四倍小,透過限制需要傳送的資訊量來節省用戶的頻寬,然後這套系統會再利用一樣的學習猜測法,提高最終圖像的解析度。
雖然這套系統方法目前仍無法測試運用在任何類型的影像上,而且AI描繪出的結果也僅是電腦的「最佳猜測」而非完全正確,但是透過進一步的發展,未來類似的系統將能用來為低解析度的圖像甚至影片填補細節。
Google Brain和DeepMind是Google母公司字母(Alphabet)旗下研究AI和深度學習的最主要兩個分支機構。Google Brain近年來發表了不少有趣的研究,除了上述的圖像解析度提升系統外,還包括兩台能自創加密演算法的AI,DeepMind去年則是以研發的AI電腦AlphaGo打敗了全球最強的多位圍棋棋士而聲名大噪。
Google這項新技術所運用的兩套神經網路,分別名為調節網路(conditioning network)和優先網路(prior network)。調節網路基本上在描繪出原本8x8影像的梗概後,轉化為另一種加強解析度的影像版本。優先網路則是在瀏覽影像後,再比對其他大量照片,找出可辨識的模型,運用這些其他類似的影像,在原本的模糊影像加入細節。