【科技趨勢觀點】從Apple秋季新品發表會,整理Apple目前最新的機器學習應用

文字撰寫

宗諭、阿吉老師

審閱

阿吉老師

照片來源 pixabay 發表會地點 Steve Jobs Theater
發表會時間

2018年9月13日

部分觀點、看法參考自WIRED網站文章:APPLE’S LATEST IPHONES ARE PACKED WITH AI SMARTS  ,特此致謝!

完整看完這次的Apple秋季新品發表會,其中真是有相當多的亮點,包括更強大的Apple watch、最新的A12 Bionic 手機晶片、革新的iPhone照相系統,更為環保的手機生產、製造、回收方式⋯⋯等等。本文將把焦點放在新一代iPhone上所整合的AI人工智慧功能。小編將為讀者們整理出Apple將機器學習功能應用在最新一代iPhone手機上的幾個重點。

Apple更多將機器學習應用至新一代iPhone上

 

根據小編觀察,Apple在新一代iPhone以自行設計的「A12仿生」手機晶片為基礎整合了更多了機器學習的功能。根據蘋果台灣官網上的資料(https://www.apple.com/tw/iphone-xs/a12-bionic/),這款晶片搭載了一個「神經網路引擎」,每秒能執行五兆次運算來做到「即時的機器學習(Real-time Machine Learning)」。

 

上一段提及的「即時的機器學習」,實際在新一代iPhone上的應用是什麼呢?舉例而言,當小編想使用新一代iPhone照相,當我按下手機上快門後,A12晶片的「神經網路引擎」會快速運作從照片的場景中精確辨識出所要拍攝的人物、臉孔,然後把這項資訊提供給iPhone相機內建的「人像模式」使用,使我們可以在運用「人像模式」拍攝照片完畢後,自由地調整背景虛化。在這裡,真是要給Apple按個讚,因為通常一張照片景深的控制,多半在按下相機快門那一剎那就決定了,現在藉由「神經網路引擎」運用機器學習的技術,可在照片拍攝好後調整背景虛化,的確能夠幫助更多非專業攝影師,拍攝出更具質感、更有創意的照片。

圖2 搭配機器學習的技術,使用者可運用新一代iPhone相機,輕鬆拍攝出具備適合景深的照片。

 

除透過「神經網路引擎」在iPhone上實踐機器學習之外,Apple更首次讓非蘋果的開發人員,可透過Core ML(https://developer.apple.com/documentation/coreml)運用前面提到的「神經網路引擎」。什麼是Core ML呢?簡而言之,它是一個Apple開發的機器學習框架,目的是讓開發者可將機器學習部署至Apple裝置上。這樣的開放、突破將帶出什麼影響呢?預期將會有更多開發者能把機器學習運用到他們所設計的App上,讓使用者在社交、藝術創作⋯⋯等等層面上,有更棒、更豐富的體驗。

 

最後要提到的是,Apple總公司雇用了來自Google的頂尖AI主管John Giannandrea(https://www.apple.com/tw/leadership/john-giannandrea/),擔任機器學習與AI策略的主管,直接向執行長Tim Cook負責。由此可知,Apple加強了在機器學習與AI人工智慧上的發展力道,不僅是開發人員可以運用Apple現有的產品做出更棒的產品,一般使用者也能享受到更好的軟硬體操作體驗。

 

備註:若欲購買CAVEDU自造的AI人工智慧產品,請洽機器人王國商城,謝謝。

 

相關文章

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *