Author Archives: CAVEDU小編

【臺北市職能發展學院 X CAVEDU教育團隊】實戰!人工智能服務與Opendata大數據專題實作​-學員錄取名單

主辦單位:臺北市職能發展學院

培訓單位:翰尼斯企業有限公司

學員錄取名單:

學號Participant Name
10710001魏O儀
10710002阮O裕
10710003李O熹
10710004邱O鈞
10710005蘇O誠
10710006黃O曦
10710007許O升
10710008張O禎
10710009蔡O峰
10710010蕭O山
10710011何O仁
10710012李O峯
10710013謝O吉
10710014龔O如
10710015劉O仲
10710016曾O
10710017陳O中
10710018李O娟
10710019林O昀
10710020宋O哲
10710021董O彤
10710022張O銘
10710023石O倉
10710024白O元
10710025龍O樺
10710026許O賓

上課地點:臺北市中山區玉門街1號 (台北自造實驗室Fablab Taipei)

 

注意事項:

1.第一次上課請遞交學員資料卡、職能進修契約書,1吋大頭照(2張)、身份證正反面影本。

2.受訓期間膳宿自理,受訓期滿全期訓練成績合格者,由本單位發給結訓證書。於進修課程期間,除公假、病假、喪假外,其餘請假事由一律以事假認定。未依規定辦理請假時,均以曠課論。扣除公假及喪假外,請假時數累積達全期課程總時數1/5(含)以上者、曠課時數達全期課程時數1/10(含)以上者或參訓期間行為不檢,情節重大者,勒令退訓。

3.已報名繳費學員因故無法參訓,得於開訓前申請退還所繳費用,未於開訓前申辦者,已繳交之訓練費用,除該班次停辦外,一概不予退還。

 

更多課程詳情,請參閱CAVEDU教育團隊首頁(http://www.cavedu.com)。

[ 報導 ] 2018.2.27-藉由教育與推廣,機器人在產業應用上大進擊,指日可待!!

如果有一天,小七泡咖啡的都變成機器人,我們該怎麼辦!?

 

除了探討機器人應用、機器人教育、機器人推廣之外,

教育,亦是這次在淡江大學舉辦的「教育 X 自造 X 機器人論壇」的主軸,

有分享近期火熱的Micro:bit在中小學的應用,以及大學Maker教育的落實。

一起來看看這次論壇的精彩內容!

作者/攝影宗諭
活動時間2018年2月27日 下午1:30至5:00
活動地點淡江大學守謙國際會議中心

 

淡江大學是南科智慧機器人創新自造基地計畫中,位於北部唯一的衛星基地,因此,自然肩負建設完善機器人自造場域與交流平台的使命。於是,在淡江大學一系列推動計畫中,首先登場的是,2月27日於淡江大學淡水校區守謙國際會議中心舉行的「教育x自造x機器人∞交集」論壇,為後續豐富的課程與競賽等計畫內容揭開序幕。

01-守謙國際會議中心

02-守謙國際會議中心設備新穎

 

1個願景、夢想:當小七賣咖啡的都變成機器人!?

議程中,新漢股份有限公司沈亦中處長提出一個非常遠大的願景,就是機器人取代所有現有人力所進行重複性的事務,使人類生活變得更加美好!他認為,機器人取代人力,將於未來五至十年內發生,幫助人類解決人手無法達成的事。

03-某天早上醒來,小七變成機器人在賣咖啡!?(示意圖)

沈亦中認為,機器人(或機器手臂)的強項在於進行重複性的事務,在這一點上,人無法與機器人競爭;而AI可進行所有有邏輯性的事務,如果是這樣的話,未來,人類的價值在哪裡?經驗,或許是人可以嘗試的路,沈亦中認為,在這一點上,AI、機器人無法取代人類。

04-重複一百遍、一千遍、一萬遍,機器人也不會累。

新漢股份有限公司正在努力的方向,就是培養一群願意用機械手臂進行各種產業應用的人才,幫助他們把程式寫出來。簡單說,就是系統化機器人學教育,讓機器人可以做各種不同事情,例如賣雞排、賣鹹酥雞、做車輪餅、搖手搖茶⋯⋯等等。(口水都快流出來了!)未來,在社會上每個角落,只要是重覆性工作,都可以用機械手臂取代!雖然,目前這只是一個願景,但沈亦中預估,可能在3至5年內,這個現象就會逐步實現在社會上各個角落。

 

除了探討機器人的應用外,這場論壇另一個主軸是:教育。從國中小STEAM教育,一直到大學的Maker教育。

 

1塊板子:Micro:bit的教育現場

麥克Lee土饅頭工坊創辦人李俊德,就介紹近來很火燙的Micro:bit,在STEAM教育上的開展。

05-李俊德(Ted Lee)介紹Micro:bit

 

他舉例,Micro:bit的應用可以與生活經驗連結,像是繪圖小車 計數器⋯⋯等等。

06-Micro:bit小彼特

07-運用Micro:bit製作的繪圖小車(擷取自臉書社團「麥克樂彼特(Micro:bit)太好玩社」,作者為Youmans Yang)

因為Micro:bit的程式並不困難,小編實際看過Ted Lee的介紹後,覺得跟Scratch很類似,同時也可以轉換成JavaScript,可以有很多的變化。因此,可以讓國中小學生充分發想創意,使編程通識教育普及化、縮減數位落差!

08-Micro:bit的程式(擷取自Micro:bit官網)

 

之後,由李俊德等人發起的「大Soobi計畫」,今年還將在3月16日邀請Micro:bit教育基金會新任CEO訪台,並舉辦研討會,大家拭目以待囉!

 

1種教育方式:大學也需要動手做的Maker

淡江大學電機系周建興教授,曾多此與CAVEDU教育團隊合作,他認為,大學也很需要Maker,因為做研究需要一些裝置,就需要Maker,亦即動手並解決問題的人。

09-笑容滿面的周建興教授,與CAVEDU有多次合作經驗。

Maker一定要是工科學生嗎?不一定喔!大學需要Maker來自不同科系,才能激盪出不同火花。以下是周教授實驗室團隊製作出來VR頭盔:

 

 

周教授很重視Maker教育,常帶學生參與亞洲地區的Maker Faire。透過參展,讓學生自信心得到很大鍛鍊與提升,對學生們的人生有很重大影響!以下是他們參加2014東京Maker Faire的一些花絮:

 

 

∞無限創意延伸

淡江大學研發長王伯昌於論壇中指出,未來淡江大學還將舉辦三場機器人相關競賽系列課程,並致力建設完善機器人自造場域及交流平台。盼望此次衛星基地計畫,能在北台灣淡水地區,甚至北海岸地區營造出優良的交流環境,向上培育機器人軟硬整合的設計人才,向下培養學生對機器人的興趣,多方向推廣並營造出具整體性的自造文化。

 

文末彩蛋:Visual components(數位工廠軟體)

在這次論壇中,還介紹了一款數位工廠軟體,名叫Visual components。簡單說,就是工廠老闆的規劃神器,因為這個軟體就像一座虛擬工廠,可以在工廠實體營運前,把想法設備設計出來,然後跑軟體內的數據,看實際讓工廠這樣運作是否可行。小編看了之後,覺得這套軟體蠻實用的,因此介紹給大家,放上軟體網站與相關圖片,請大大們品香!

 

網站:https://www.visualcomponents.com/

10-軟體的介面

 

11-建構起一間虛擬的數位工廠

12-這是「五」力全開、「五」功高強的概念嗎?

 

相關文章:

[ 教學文章連結 ] 手把手引領您,使用DesignSpark PCB「新增元件」功能

作者/攝影宗諭/偉伶

 

DesignSpark PCB是款好用的繪製電路軟體,

然而,使用它時,難免也會遇到找不著某個電子元件的窘境。

CAVEDU這篇教學文,目的正是要手把手教導您,

如何使用DS PCB「新增元件」功能。

看完之後,相信您再也不用擔心找不到合用的電子元件了!!

 

 

閱讀全文:https://www.rs-online.com/designspark/content-types/article/9115?lang=cn

Mitchel Resnick教授給台灣孩子、家長與教學者的一段話

作者/攝影曾吉弘

 

CAVEDU與Mitchel Resnick教授的淵源相當深,要說是這行的祖師爺也不為過。阿吉老師早在大學時代就與M教授碰面過了,他從1999年的RCX(甚至更早的Cybermaster與Scout,沒聽過了吧~) 就開始與樂高公司在 Mindstorms 系列上有密切合作,所以M教授在2004 Mission Mars 與2006 NXT 發表兩次訪台時都有幸與他見面過。

 

Scratch從2006年誕生以來,介面與風格可說是沒什麼變動。相較於軟體上大家都在追求”還要有什麼?” 我反而佩服的是M教授說過的”我們要保留哪些核心功能?”

人生能有幾個15分鐘能與心目中的大師聊天?2016年來MIT受訓時,好不容易才和他約吃早餐,把我們出版的[Scratch 數位互動我最行]致贈給M教授。更何況這次來美國將近半年,知道他就在斜對角300公尺外的Media lab,心情可是大大不同。

M教授對於即將在今年八月上線的Scratch 3.0非常非常期待(他用了super super excited),期待能幫助所有的孩子們”創意思考 (think cratively) “並成為”創意思考者 (creative thinker)”,這正是LCL課程的核心觀念所在。如果大家想要多了解 Lifelong Kindergarten小組的理念的話,建議一定要看看Learning Creatvie Learning的課程網站,六周課程每周都非常實用且精彩。CAVEDU教育團隊很高興能協助LCL網站與課程內容的繁體中文化,並於2016 17年度與台灣Intel公司協助推廣Computer Clubhouse,M教授認為這某方面來說可視為maker space的源頭。

 

對於Scratch 3.0,他題到了以下幾點功能:

  1. mobile device better
  2. extension
  3. 網路服務 (在此提到一個Scratch結合Spotify的範例)

 

這次抓緊機會請他錄一段影片給台灣的大家,也讓他與團隊同仁知道台灣在使用Scratch教學上非常活躍。期待他有機會能再來台灣。

 

M教授在訪談中提到學習如何創意性思考、系統性推理,還有彼此合作來完成事情,這些技能可說是前所未有地重要。Lifelong Kindergraten小組會變得更開放來堅持Scratch的原初精神。讓大家在運用Scratch來”做什麼”與”怎麼做”等方面有更多可能性。我也非常期待看到台灣的小朋友們運用Scratch 3.0所完成的作品。

當天也感謝謝宗翰(目前在Meida lab Biomechanics小組攻讀博士,領域為機器義肢/腳)協助訪談與拍攝照片喔。這個樂高桌子實在是太搶鏡頭了~

 

更多照片

從Media lab一樓大廳走上去到4樓就是Scratch大本營

大廳中央有用樂高完成的Media lab建築模型,好精緻啊

挑高樓中樓,採光非常好,基本上除非陰天不然白天不太需要開燈。

每個小角落都充滿驚喜呢,可以看到 Scratch結合各種裝置的應用:樂高Wedo, Boost、Microbit、Makey Makey,還有他們自己作的硬體等等。也可以看到歷代樂高的智慧型積木主機,一下子就快20年過去了啊~

 

相關文章:

[ 2018小小自造者冬令營-Boson篇 ] 2018.1.29-2.2小朋友的創作魂大爆發!!

當小朋友遇上Boson電子積木套件,會花生什麼事呢?

在CAVEDU教育團隊主辦的「2018小小自造者冬令營」就真實上演喔!

答案讓你猜一猜:

  • 小朋友大爆走
  • 小朋友鴉雀無聲、啞口無言
  • 小朋友創意大爆發,製造出馬力歐宇宙

答案會是什麼呢?

作者/攝影宗諭 / 楨詒、怡婷
課程時間2018.1.29-2.2
課程講師 品叡、楨詒、皓云、怡婷、偉伶
課程場地CAVEDU教育團隊大本營

 

Boson是由DFRobot開發出來的電子積木套件,也就是藉由一個一個的電子積木,讓孩子與想要學習電子電路原理的初學者們,能夠以更簡潔明確的方式學習。

因為在Boson的電子積木套件中,提供了And、Or、Not的邏輯方塊,所以,小朋友可以透過Boson學習數位邏輯,體驗數位邏輯的符號運用。在此,先簡介一下數位邏輯,讓大家有個初步了解。數位邏輯又稱邏輯閘,就是當我們把一個或多個電子訊號,比方說電壓或電流,輸入一個電子電路,然後這個電子電路透過本身的運算,可以產生出輸出訊號,那麼這個電子電路就是一個邏輯閘。

數位系統中的電子訊號,例如我們剛剛提到的電壓或電流,在數位系統中都只有兩種數值,就是0跟1。比如說,我們可以將高的電壓定義成邏輯1, 而將低的電壓定義成邏輯0。所以,在一個數位系統中最簡單的運算就是邏輯運算,而負責邏輯運算最基本的元件就是邏輯閘。

日常生活中有什麼地方會運用到數位邏輯呢?比方說,我們每天都會用到的電腦,它的主機板就是由許多的邏輯閘所組成;還有我們出國會搭乘的飛機,上面的許多航空儀器,也都是由許多邏輯閘所組成。

與過去極為不同的是,以往台灣的教育較為重視記憶和考試,透過這樣的方式教導學生數位邏輯。然而,現今Boson把邏輯閘實化成為實際可動手玩、體驗的積木,孩子從小便習慣使用,長大後自然對邏輯閘的概念不陌生。

 

超興奮,用Boson做自己的夢想成品

於是,在這次「2018小小自造者冬令營-電力公司」第三天的活動中,CAVEDU教育團隊就讓小朋友們親自動手體驗Boson積木的樂趣,小朋友可說是超興奮完全停不下來!

1 小朋友興奮無比玩Boson積木

2 玩積木停不下來

當天上午,講師先講解Boson的顏色,然後拿出按鈕、組版、跑燈、燈條,讓小朋友親手接起來,他們必須了解積木間方向的關係,才能成功把LED燈接好。接下來,就是讓孩童把自己想要的積木樣式做出來,完成後配合感測器執行動作,製造出他們心目中的魔法棒。

3 LED燈接好

4 點亮了!YA

超能力,小朋友打造馬力歐之宇宙

然而,小朋友們的創意可說是火力全開,大人設定的框架完全限制不了他們!因為Boson可與積木結合,所以小朋友的作品多半與造型積木連結。從一開始的槍、機器人,至後來完全爆發Maker自由創作的精神。

5 Boson積木創作——機器人

6 Boson積木創作——

因有位小朋友最近常在家中與爸爸打「超級馬力歐」電玩遊戲,所以在他的大力吆喝下,大家開始製作電玩遊戲「超級馬力歐」中各式各樣的道具,包括,黃色神秘道具箱、蘑菇、金幣,最後完全一發不可收拾,搭配上Boson積木的聲光效果,幾乎完成一個作品,連教課的講師們皆十分咋舌小朋友充沛的創作力。

7 馬力歐的黃色神秘道具箱

8 馬力歐宇宙

下午則是教導邏輯閘,雖然是比較抽象的概念,但因Boson十分直覺化,所以小朋友們只要按一按、玩一玩,就能搞懂數位邏輯中的And、Or、Not的觀念。

 

超直覺,麻瓜完全可以無痛就上手

然而,Boson可不只是教小朋友好用而已喔!因為DFRobot還有針對最近在Maker界很火紅的micro:bit,推出Boson kit套件包(micro:bit需另購),內附一片micro:bit擴充版,上面有電源開關、六個周邊接頭、音量鍵及耳機插孔。套件包內還提供許多有趣範例,可以立即動手實作。當然,Maker們更可以透過這片擴充板與micro:bit充分結合,找出更多創意十足的玩法。

總而言之,Boson這套電子積木套件提供了非常直覺化的學習方式,讓在這方面自認為麻瓜的朋友們,完全可以無痛上手!

相關文章:

[ 報導 ] 2018.2.9-中科智慧機器人自造基地 新創公司、Maker的應許之地

還記得威爾・史密斯主演的科幻電影《機械公敵》嗎?在電影的末尾,眾多AI智慧機器人似乎得到了拯救,走向屬於機器人的應許之地。現在,台灣也有一個AI智慧機器人的應許之地——中科智慧機器人自造基地,一起來瞧瞧這個機器人的自造基地,跟我們有什麼關係吧!

作者/攝影宗諭
活動時間2018.2.9
活動地點中科智慧機器人自造基地展示中心
  • 未來四年,培育4000位人才。
  • 創造1450個新創公司就業機會
  • 未來要有50家以上新創公司進駐
  • 產生45AI智慧機器人應用計畫
  • 產生30AI智慧機器人關鍵技術與產品

 

大家猜看猜,這是國內哪家大企業的KPI呢?其實,這是科技部對於「中科智慧機器人自造基地」所設定的一個行動目標。由此亦可得知科技部對於這個智慧機器人自造基地期許甚深,科技部部長陳良基不僅上台公開宣示,更盼望不久將來,這個智慧機器人自造基地可以發展為全球AI智慧機器人產業的動力火車頭!

圖1 科技部部長陳良基(左)與中科管理局局長陳銘煌,共同啟動「中科智慧機器人自造基地展示中心」。

 

機器人秘密基地

其實,中科的機器人自造基地已於2017年10月25日揭牌剪綵,2月9日則是自造基地展示中心的開幕典禮,代表自造基地正式營運並對外開放使用。基地除將提供機器人相關軟硬體設備、開放式創新平台及Low-code development platform,更將開放給智慧機器人相關Maker、新創團隊、中科園區廠商與工程師、公會、協會、研究中心,以及高中、大學的學生使用。所以,各位想要打造機器人的Maker大大們,可千萬不要辜負政府與中科的用心良苦,務必要充分運用這個AI智慧機器人的應許之地!

 

展出各式機器人

開幕典禮當天,現場還有豐富的午餐,是展示了許多產業界研發的機器人。小編就帶大家一起身歷其境地瞧一瞧:

 

1.「迪羅科技」的智慧運算機械手臂,整合NVIDIA的Jetson TX2模組與NEXCOM的機械手臂。

該如何使這台機械手臂運作呢?首先要有大量的照片。

圖2 迪羅科技的智慧運算機械手臂

然後,將這些照片傳入超級電腦NVIDIA DGX Station,進行Model Training。也正是在這一階段運用NVIDIA Deep Learning GPU Training System(DIGITS)關於深度學習(Deep Learning)的技術。

圖3 超級電腦NVIDIA DGX Station

 

再將經過Training的Data傳送至Jetson TX2模組。

 

圖4 Jetson TX2模組

Jetson TX2模組串連NEXCOM機器手臂。

圖5 NEXCOM機械手臂

透過Jetson TX2模組進行即時影像辨識,取得物件種類與位置資訊,之後再透過指令使機械手臂完成動作。大功告成!

 

根據小編的現場觀察,由於自造基地尚處於起始營運階段,因此,目前在展示中心展出的機器人,除了「迪羅科技」的智慧運算機械手臂有運用深度學習(Deep Learning)技術,可算是AI智慧機器人之外,其他的機器人應該比較算是工業用機器人。因此,接下來以圖片搭配簡單文字介紹:

 

2.安全皮膚機器手臂,由工業技術研究院與原見精機公司共同開發。

圖6 安全皮膚機器手臂

3. MotoMINI超小型組裝機器人,由安川電機研發。

圖7 MotoMINI超小型組裝機器人

4.教學專用-工業六軸機械手臂,由NEXCOM研發。

圖8 工業六軸機械手臂

5.鞋底塗膠機器人,由勤堃機械研發。

圖9 鞋底塗膠機器人

6.台達SCARA機器人飛拍插件工作站

圖10 台達SCARA機器人飛拍插件工作站

 

7.HIWIN公司系列機器人

圖11 HIWIN公司系列機器人

8.3D脊椎手術導航系統,由鐿鈦科技研發。

圖12 3D脊椎手術導航系統

9.機器人自動咖啡販賣機,由勵德自動化公司研發。可說是現場另一人氣機器人,不少人在排隊⋯⋯等喝咖啡(疑?)。

圖13 機器人自動咖啡販賣機

10.高精度光固化3D列印設備,由馬路科技研發。

圖14 高精度光固化3D列印設備

 

舉辦機器人大賽

雖然部分硬體設施還待進一步完工,然而,根據中科管理局陳銘煌局長致詞時的說法,應該是軟體先行。除了將舉辦「世界機器人大賽(FRC)」的初賽與觀摩外,陳局長更豪邁宣示(在台上直接請示陳良基部長,猛!),將在自造基地舉辦「FIRA機器人世界盃大賽」,現場一遍叫好聲!

圖15 期待「中科智慧機器人自造基地」,幫助台灣智慧機器人產業建立完整生態系。

 

建立產業生態系

雖然政府與中科打造了一個設施完善、軟硬體兼備的自造基地,但若想建立起機器人產業,甚至進一步成為機器人產業生態系,還有賴產官學界的通力合作。因此,各位Maker大大,趕快來使用場地喔,就靠你們了!

 

祝大家新春快樂

同時,正值農業春節,CAVEDU教育團隊也在此祝福大家:新年如意、平安喜樂、狗年旺旺來!

 

相關文章:

 

 

[情人節快樂,自製屬於自己的Google doodle吧!] 使用Scratch設計Google doodle 互動小動畫

本次Google與Scratch公開教學剛好搭上了二月的情人節節慶,也維持著Google doodle的老傳統(每當節慶時都會有特別的字樣設計或是互動式小動畫),結合了Scratch的圖形化程式後讓人人都可以成為Google doodle設計者,這樣的想法真的是很棒呢!

作者/攝影  曾吉弘
時間  1小時或看您想要花多少時間!
成本
難度 * *
材料表可連網之個人電腦

 

Google與Scratch聯手推出基礎教學課程,告訴您如何自行設計 Google doodle,就是在Google 首頁看到的各種以Google字樣為主的簡易小動畫,還有12堂基礎課程,有興趣的家長老師們可不要錯過喔!

由此進入教學網頁,看完教學影片請點選右邊的 “Starter Project” 就會進入這次主題的 Scratch 樣板,相關的圖檔與效果檔都已經預先載好了。

開啟專案會看到基礎的Google字樣,每一個字母都是一個獨立的角色(sprite)。已經玩過Scratch的朋友到此應該已經一頭栽進去了,馬上就有很多東西可以玩啊~

您可以點選某個字母之後點選造型(costumes),可以看到本專案已經預先提供了非常多可愛的造型。

那沒學過的呢?別擔心,網頁下方一共有12個基礎課程,每一個課程都有影片,邊看邊學很方便 (以下按照原文順序翻譯):

切換角色(Switch Costume)說說話(Say Something)
加入背景(Add Backdrop)改變顏色(Change Color)
編輯、畫畫或加入字母( Edit, Draw or Add Letters)追著滑鼠跑(Chase)
修改舞台(Change Scene)讓字母旋轉(Spin)
字母隨機移動(Jumble Letters)讓字母消失(Disappearing Sprites)
讓字母隨著音樂畫遍(Dance Whirl)字母彈跳球(Bouncing Sprites)

 

這是阿吉老師做到一半的截圖,一起來玩玩看吧!

您當然也可以結合目前很熱門的實體運算概念來與真實世界互動,例如Scratch board、Arduino與樂高Wedo等等都是很不錯的喔!

 

相關文章:

[ 電路設計軟體Multisim Blue ] 自己來設計一個腳踏車方向燈吧!

大家還記得之前在勵友中心的課程嗎?故事要從那裡說起……

原來,勵友中心的小朋友們為了要騎自行車環島,便自己製作出了方向燈背心,但CAVEDU教育團隊仔細想想,ㄟ ,這樣去環島可能還不夠安全,大概還需要在自行車上安裝一些方向燈,於是這篇教學文便熱騰騰出爐啦!!

有興趣厲友課程的朋友歡迎點選文章:【課程紀錄文 】2017.10-12 [勵友中心創作課程]熱血講師的教育實踐 小朋友變身無懼失敗的未來Maker

這次怡璇大大要介紹的作品,是一顆安裝在腳踏車後方的方向燈,它可以提供行徑方向,使後方來車可以清楚看見,增加行車安全!

方向燈的電路能自行改變LED排列形狀,也可以改變閃爍頻率。

這次的方向燈是透過LED閃爍以提供警示功能,正因為需要閃爍,所以我們使用555IC使讓它產生閃爍效果。

作者/攝影  陳怡璇
時間  2-3小時
成本 約200元
難度 * *
材料表說明:這是一份一邊的燈的材料,若左右兩邊都要材料就需要兩份。

  • LED*6(可以自己決定數量)
  • NE555*1
  • 電容100np*1
  • 電容10up*1
  • 1K歐姆電阻*2
  • 電路板*1
  • 電池扣(水銀電池)*2或是電池盒(1.5V*4)*1
  • 按鈕(有段)*1

 

 

首先,簡單介紹一下555 IC。

555是一顆計時器,它有三種工作模式:單穩態模式、雙穩態模式及無穩態模式。以下為三種電路的分別功能:

  1. 單穩態模式:需單次觸發,當作脈衝產生器。
  2. 雙穩態模式:具有除2、整形、記憶之正反器基本結構。
  3. 無穩態模式:不須觸發連續自動產生脈波。

 

上面的電路圖是我們這次所要接的電路,這裡簡單介紹一下電路功能:

腳2(TRI)為觸發腳,C1、R1跟R2連接至腳2形成一充電回路;腳7(DIS)放電腳,C1跟R2連接腳7放電;充電時間腳3(OUT)輸出高態(H),放電時間輸出低態(L);無穩態電路會自動重複以上動作,因此接上LED後,LED便會閃爍。

輸出高態時間公式:ln(2)*(R2+R1)*C1。

輸出低態時間公式:ln(2)*R1*C1。

由上面公式與上方的電路圖,若R1=R2,充電時間便會釋放電時間兩倍。

 

Step1:繪製電路圖

依據上方的電路圖畫好電路後,仔細確認電路是否正確,接著整理好需要的零件。

 

Step2:繪製電路板

  1. 首先打開Multisim Blue。
  2. 放置零件:

點選place,再選擇component。注意出現的database會因需要的零件不同而有所不同。

3.選擇零件:(555)

選擇master database,並在component搜尋555

因為555有很多種,每種的footprint皆不同,所以必須另外選擇footprint。選取零件,左鍵點選兩下,至ValveEdit footprint

進去後,選擇Select from Database

進入後,選擇Mouser Database,在Footprint欄位找到DIP-8,然後按下Select

接下來要調整IC腳位。

Edit Footprint介面,選擇Map pins。要注意Footprint那排的編號,選擇DIP-8的那一個,前面的數字編號可能因每次軟體重新開啟而有所不同,也要注意一下圖片的樣子。

進入以後,將Footprint那欄位的數字改為以下順序,然後按下OK。這樣555footprint便修改完畢。

3.選擇LED

選擇databasemouser database,在component搜尋C503B,然後選擇第一個。會選擇這個,是因裡面就找到這個是普通的LEDfootprint符合我們的需求,其他幾乎都是SMDLED

這次的電路需要6LED,若讀者想要多一點LED也可以自行增加,不過要注意輸出的電壓、電流是否足夠一次點亮這麼多LED

若要版面看起來乾淨一些,可以把不必要的文字關起來。

點取零件,左鍵按兩下,選擇display,將show values取消。

3.選擇電組

選擇databasemaster database,選擇resister,然後component選擇1K。這邊需要兩個電組。要注意它的footprint,不要選到no footprint

4.選擇電容(無極性)

選擇databasemouser database,在component搜尋0.01,然後選擇CAP_Film_TH_63V_Panasonic那一個,可能會有點大,但因為其它找到的都是SMD的,我們需要的是有接腳的。

這是陶瓷電容,無極性的通常都是使用這個,可參考網址:https://www.mouser.tw/productdetail/vishay-cera-mite/440ls20-r?qs=sGAEpiMZZMuMW9TJLBQkXhF%252bCvRzw5Mb7B8NEuAfSws%3D

 

5.選擇電容(有極性)

容量比較大的電容通常都會被做成電解電容,所以會有極性上的差別,焊接時要注意有沒有極性接反。選擇databasemouser database,在component搜尋10µF,250V,然後選擇第一個。與上面一樣,因為需要接腳,所以選擇這個圖,實際上並不需要這麼大的耐壓。

這個就是電解電容,可參考網址:https://www.mouser.tw/productdetail/panasonic/eeu-fs1c222lb?qs=sGAEpiMZZMvwFf0viD3Y3fHxNcSaiftwQrwpb7ohpUx3Ai0h0VqORQ%3D%3D

 

6.接地(這是方便辨識的地)

選擇databasemaster database,然後選擇POWER_SOURCES,然後選取GROUND

7電源

選擇databasemouser database,選擇Sources,選取第一個。

這邊需要兩個電源,電壓才足夠供給555供電,兩個電源皆需串聯。串聯後,正極的部分就是VCC,負極則是GND

若嫌它顯示太多不必要文字,一樣可以取消顯示。

這邊要把它的電壓改成3V,因為這裡是使用鈕扣電池,一顆3V。一樣選取零件,左鍵按兩下,然後選擇Label,把裡面文字改成3V

若沒有這樣的電池與電池扣,可以跟下面按鈕一樣,改採排針代替,然後改成使用電池盒。

 

8.按鈕

按鈕由於要另外接線出去,因此以排針代替。選擇databasemouser database,尋找到HEADER_PIN_Single_Row_TE_Connect,然後Component搜尋102972-1。這裡需要兩個排針

至此為止,所需零件就都找完、調校好了,接下來便按照電路圖接好它。

若想要左右兩邊製做在同一塊電路板上,可以把上面的電路直接再複製一個貼上,這樣在PCB拉線時就可以兩個一起擺了。

接下來就是轉成PCB。點選Transfer,然後Transfer to Ultiboard,按下Transfer to Component Evaluator。這樣就能產生PCB的檔案。

Step3:繪製PCB圖

剛開始進來的畫面會長成這樣。

1.更改版面位置。

選擇除了電池以外的零件,電池就是最大的那兩個,選擇好之後,按下右上角的Swap layer,將零件改為背面。

2.放好零件。

將所有零件擺放好。因為是方向燈,因此我把LED擺成箭頭形狀。

3.改變PAD

零件排好後,我們要先改變PAD面積,要把它的面積改大,這樣才好焊接。

注意上面單位,要先改成mm,然後點選PAD,點取RectangleLength改為2,最後按下OK

這裡一樣除了電池之外,每個都要改。

4.自動佈線

按下Ctrl+Shift+8,它就會幫你把線佈好。優點是方便快速,缺點是它會有上層和下層的線。

5把線整理好

通常自動佈線完畢後,都會進行手動整理,自動佈線會產生很多不必要的轉彎,若無法把線都改成同一面,也可以修掉不必要的轉彎即可。

6.改線寬

選取線,然後左鍵按兩下,便會跑出以下畫面。選擇General,然後Width改成0.7,最後按下OK。若是怕洗電路時線斷掉,也可以加粗一點,但線也不是愈粗愈好,而是要看電路的電流以決定。

7.最後結果

當線寬都改好後,這就是最後的完成圖,就能拿去洗電路並把成品做出來了。不過與前一步驟整理線的圖不太一樣的是,因為線寬修改過後,有可能線就會短路,若是短路就需要微調一下。

再來就是把圖片列印出來。

曝光。

曝光完成後要先顯像。

顯像完成後進行蝕刻

蝕刻完成後,電路板就大功告成了!

電路板完成後要再切割、鑽孔,然後把零件焊接上去,通通做完後便可綁在腳踏車上面,按下按鈕,LED便會開始閃爍。BlingBling!亮晶晶!

按鈕就固定在把手上。

 

相關文章:

 

 

 

[ 課程紀錄文 ] 2017.10-12 [勵友中心創作課程]熱血講師的教育實踐 小朋友變身無懼失敗的未來Maker

【各!位!觀!眾!】

CAVEDU教育團隊愛心不落人後,兩位熱血講師前進勵友中心開設「無懼失敗工作坊」!

啊不,是為期12週的手動創作教育課程。

讓小朋友們體驗自己當Maker,探索興趣與職涯目標,最後更設計電路,自造腳踏車環台用的方向燈背心!

裡面還有幾個有小洋蔥的故事。一起來欣賞吧,歡迎給我們團隊一些鼓勵。

 

But! But!

你知道勵友中心的小朋友用什麼好用軟體設計電路嗎?

手刀快快看:[不錯用的電路設計軟體Multisim Blue]手把手安裝教學

作者/攝影趙偉伶
課程時間2017年10至12月
課程講師郭皇甫、趙偉伶
課程場地勵友中心好Young館

 

「開始做教育的那刻起,我開始認真思考教育的意義究竟為何?」

這是一門為期12週、每次1.5小時在勵友中心教導小朋友的課程。勵友中心一直以來致力於輔導邊緣、弱勢青少年,透過陪伴、輔導活動或課程,增加他們生命的豐富度,並幫助他們尋覓到生命的方向。勵友中心更近一步成立「好Young少年創意基地」,提供各種課程,使青少年能夠發掘出興趣之所在,進而發展成個人未來的職涯目標。

在開始設計教程的那一刻,我正思考在這科技日新月異的世界,對現今的學生而言,最重要的會是甚麼?我想引領他們學得解決問題、吸收新事物、創造新事物的能力,這是我賦予這門課程的意義。

因為我們傳統習慣的教育模式,甚少有自由發揮、Maker的課程,所以在設計課程時,要小朋友剛開始、一夏子進入自由創作的課程是有一定難度的。為此,我們將課程細分為四大部分,讓孩子們慢慢習慣於創作的氛圍。

 

一、網路蒐集通;

二、動手做一做;

三、動腦想一想;

四、專題實作;

 

以水果作畫 網路蒐集通一通

剛開始,我們先做了「水果衣服」這個題目。日常生活中,我們常會不經意把水果的果肉、醬油⋯⋯等東西不小心翻倒於白色衣服上。於是,我們透過將水果倒用在白色布上的方式,讓他們創作屬於自己的水果畫,之後請他們利用Google搜尋該如何將衣服上的水果清乾淨。最後小朋友們運用了許多方式,終於將白色舊衣洗乾淨了!

學生們開心地在白色舊衣上用水果做畫,也認識水果用在衣服上可能發生的效果為何。

在教授這門課時,發生了一個讓我十分意外的小插曲。班上有一個小男孩,母親好像是來自柬埔寨,所以他其實不太會使用注音,在使用Google時發生了一些狀況,中文字也未認識太多,於是我親自帶他一起念這些字。課程結束時,我們都非常高興他認識了所有水果的字與注音!

 

不要怕失敗 實際動手做一做

接下來我們讓小朋友們利用珍珠板做自己的彈珠台,讓大家習慣動手做。尚未製作前,小朋友們都會想很多,卻有點不敢動手嘗試,因為怕做錯。但是,「動手做許多時候如同人生,當你不敢去跌倒時,就無法體會更多不同事物,人生失敗很常見,多次失敗才能累積經驗,達到下一次的成功」我們如此告訴小朋友。

 

動腦想一想 實現蝙蝠俠披風

萬聖節剛好在十月最後一周,於是CAVEDU教育團隊讓大家開始發揮各自創意,發想萬聖節服裝。這次他們要從發想、列出材料、實際實作、修改。剛開始的情況相當兩極,有人非常願意創作;也有小朋友害怕失敗,覺得沒有很多材料怎麼可能做到!我一開始給他們的發想有兩個:機器人與亮燈天使。

之後,慢慢開始有小朋友,想做蝙蝠俠、Minecraft 的冰人、東京喰種的金木研、蛋蛋人⋯⋯等等。他們畫出各式各樣設計圖,第一堂課除了畫設計圖之外,還要跟我提出需要那些材料; 第二堂課大家就開始實際做出作品了。在創作過程中,或許因我設計的機器人是用紙箱創作的,所以小朋友們都很喜歡用紙箱進行創作。

有位小朋友讓我覺得十分感動。他想做蝙蝠俠披風,然而,其他想做披風的小朋友最後皆覺得披風很好像太難了,便直接以黑色塑膠袋取代。但我跟他說用布可以做出來,於是,他用了一條類似西裝的長褲,我們一起把褲管、褲襠剪開,將兩片褲管互相縫起來,就變成他想像中套頭的披風了!

孩子們一起開心地treat or trick

 

專題有實作 自造方向燈背心

最後發現,有的老師意願帶這群孩子騎腳踏車環繞台灣某些地區,所以我們開始發想,如何透過電子電路的方式,讓他們做出自己的方向燈背心。

讓第一次接觸電子電路的學生喜歡上這個領域其實不太容易,當我們還在學校當學生時,電子電路有許多艱澀的理論必須去理解。為讓他們覺得好玩,我們首先設計了兩個小專題:讓他們認識電壓、電流,串聯、並聯,焊接技巧⋯⋯等基礎的電子創作能力。

我們做了手持式電風扇與馬達手機充電,讓他們嘗試若要讓電風扇轉更快,有哪幾種方式;以及穩定的電壓對手機的重要性。

 

接著是挑戰度大增的設計電路,關於設計電路的軟體,我們使用的是Mouser與NI合作共同推出的軟體Multisim Blue。因為小朋友們多半是小三至國一的年齡,我剛開始還十分擔心他們接電路接不好,然而,每個人皆專注力十足地留心下一步是什麼。

畫好電路圖後,接著洗電路。

 

調配顯影劑

右邊用酒精將電路的感光層擦掉;左邊搖液體使液體均勻混和。

最後大家一同焊接,完成最後成品。

令我印象很深刻的是,班上有一位小男生十分有個性,但他從剛開始的有點小小叛逆,到後來最認真、做最好的卻也是他,甚至是班上焊接焊得很好的小朋友之一!最後電路繪製過程,其他小孩都是兩個兩個一組,只有他獨立完成全部任務。

 

結語

歷經這12周課程,我們由衷感謝這群小朋友,因為我們不只是帶著他們成長,同時也跟著他們成長。看著他們由剛開始不太願意或搞不清楚狀況,到會自己動手做、動手焊接,積極想完成成品的認真樣貌,真是心中滿滿地感動!衷心盼望他們能明白,只要願意動手做,也能做出很棒的東西;只要肯努力,即便出身較為貧困,也將會有成功的一天!

 

 

相關文章:

[Movidius神經運算棒]五步驟打造Intel Movidius NCS影像分類器

(Original post from Intel Movidius NCS blog: “Build an Image Classifier in 5 steps”:https://movidius.github.io/blog/ncs-image-classifier/

 

什麼是影像分類?

影像分類是電腦視覺的重要課題。目標在於把圖像中的某個主題或物體歸類到預先定義的類別中。現實生活中的影像分類問題是把印有各種物體的卡片拿給小孩子看,並讓他們分辨卡片上所印的東西是什麼。傳統的作法是讓機器具備一定的視覺感知能力,這有賴於使用特徵描述器的各種複雜電腦演算法,描述器像是邊緣、角落與顏色等等,來辨識或辨認影像中的一或多個物體。

深度學習採用另一個更有效率的做法來解決現實生活中的影像問題。它運用了多層彼此互聯的神經元,每一層都採用了特定的演算法去辨識或分類某個描述符(descriptor)。舉例來說,如果您想要對交通的[STOP]號誌進行分類的話,要用到深度神經網路 (DNN) 來偵測號誌的邊緣與邊界,第一層則是用來偵測邊角的數量、下一層則是偵測紅色、再下一層偵測紅色周圍的白色邊界,一直反覆執行下去。DNN可以把一個任務分配到執行單一檢算法的多個層,這樣可以處理大量的描述符,讓基於DNN的影像處理應用於現實生活中能更有效率。

作者/攝影  曾吉弘
時間  2小時
成本
難度 * * * * *
材料表
  • Raspberry Pi 3單板電腦
  • Intel Movidius神經計算棒

 

Layer 1: 邊緣偵測(八角形)

Layer 2: 邊緣附近的白色邊界

Layer 3: 紅色本體

Layer 4: “STOP”字樣

注意:上圖僅用於示範DNN如何辨識物體中的不同描述符,並非DNN用於分類STOP標示的正確呈現。

影像分類與物件偵測是不一樣的。分類是假設整張圖中只有一個物體,例如上述的幼童圖卡範例。另一方面,物件偵測可以在同一張圖中處理多個物體,並計算各物體在圖中的位置。

邊做邊學!

您會製作:

從資料夾中讀取單張影像並進行分類。

您會學到:

  • 如何使用預訓練的網路來進行影像分類
  • 如何使用Intel® Movidius™ NCS 的API框架來編寫程式

您會需要:

  • Intel Movidius Neural Compute Stick 神經運算棒 – 購買請按我
  • 32/64位元的桌上型/筆記型電腦,作業系統須為Ubuntu 16.04 (“開發機器”)

如果還沒做的話,請在您的開發機器上安裝完整的NCSDK。請參考Intel Movidius NCS Quick Start Guide上的安裝步驟來完成。

先看結果…

如果想先看看程式輸出結果的話,請用以下使令來取得範例程式 (NC App Zoo) 並執行

mkdir -p ~/workspace
cd ~/workspace
git clone https://github.com/movidius/ncappzoo
cd ncappzoo/apps/image-classifier
make run

make run 指令會下載並建置所有的相依檔案,例如預訓練網路、二元graph檔、ilsvrc資料集均值等。只有第一次執行時要先執行make run;後續只要執行 python3 image-classifier.py 就可以了。應該會看到類似以下的訊息:

 ——- predictions ——–
prediction 1 is n02123159 tiger cat
prediction 2 is n02124075 Egyptian cat
prediction 3 is n02113023 Pembroke, Pembroke Welsh corgi
prediction 4 is n02127052 lynx, catamount
prediction 5 is n02971356 carton

開始吧!

感謝NCSDK 完整的API framework,只需要幾行Python就可以完成影像分類器。以下是image-classifier.py 中一些需要調整的使用者參數::

  1. GRAPH_PATH:要進行推論的graph檔路徑
    • 預設值為 ~/workspace/ncappzoo/caffe/GoogLeNet/graph
  2. IMAGE_PATH:想要分類的影像路徑
    • 預設值為 ~/workspace/ncappzoo/data/images/cat.jpg
  3. IMAGE_DIM:所採用神經網路之影像尺寸規格
    • 例如 GoogLeNet 採用 224×224像素,AlexNet則是227×227像素
  4. IMAGE_STDDEV:您選用之神經網路所定義的標準差(scaling value)
    • 例如:GoogLeNet不採用任何比例因子,但InceptionV3的比例因子為128 (stddev = 1/128)
  5. IMAGE_MEAN:均值減法(Mean subtraction)是深度學習領域中常用的資料整理技巧。
    • 對ILSVRC資料集來說,B、G、R的平均值分別為102、117與123

請先由mvnc函式庫匯入mvncapi模組,才能順利使用NCSDK API framework。

import mvnc.mvncapi as mvnc

 

Step 1:開啟enumerated裝置

如同其他USB裝置,當您將NCS接上應用程式處理器 (執行Ubuntu的桌上型/筆記型電腦) 的USB埠,前者會被後者枚舉為一個USB裝置。我們可以呼叫API來檢視各個NCS裝置。

# Look for enumerated Intel Movidius NCS device(s); quit program if none found.
devices = mvnc.EnumerateDevices()
if len( devices ) == 0:
print( 'No devices found' )
quit()

您知道在同一個應用程式中,可以連接多個NCS神經運算棒來提高推論效能嗎?以下語法是運用API 呼叫單一NCS並開啟 (意即準備好操作).

# Get a handle to the first enumerated device and open it
device = mvnc.Device( devices[0] )
device.OpenDevice()

 

Step 2:將graph檔載入NCS

為了簡易起見,我們採用已訓練好的AlexNet model中的某個已編譯的graph檔,這當您在 ncappzoo 資料夾中執行 make 指令實就已經編譯好了。後續會有文章教您如何編譯一個已經訓練過的網路,但現在先來看看如何把graph載入NCS中。

# Read the graph file into a buffer
with open( GRAPH_PATH, mode='rb' ) as f:
blob = f.read()

# Load the graph buffer into the NCS
graph = device.AllocateGraph( blob )

Step 3:載入單一影像至Intel Movidius NCS並進行推論

Intel Movidius NCS是以Intel Movidius視覺處理元件(VPU)為基礎。這個元件對數百萬種監控攝影機、可用手勢控制的無人機、工業級機器視覺設備提供了視覺智能。如同VPU,NCS在系統中扮演的角色好比是個視覺上的共同處理器。以本範例來說,我們採用Ubuntu系統來讀取資料中的影像並 and offload it to the NCS for inference。NCS負責所有的神經網路運算,,這樣就可以節省CPU與記憶體來執行其它應用層的任務。

我們得先對影像進行處理(預處理)才能將影像載入NCS。

  1. 調整或裁切影像,好符合後續預訓練的網路規格。
    • GoogLeNet格式為224×224像素,AlexNet則是227×227像素
  2. 從整體資料集中,減去各個頻道 (Blue, Green and Red) 的均值。
    • 這在深度學習領域中是常見的 center the data 的技巧。
  3. 將影像轉為半精度浮點數 (fp16) 陣列,接著使用LoadTensor函式將影像載入NCS。
    • 搭配skimage函式庫只要一行程式碼就搞定
# Read & resize image [Image size is defined during training]
img = print_img = skimage.io.imread( IMAGES_PATH )
img = skimage.transform.resize( img, IMAGE_DIM, preserve_range=True )

# Convert RGB to BGR [skimage reads image in RGB, but Caffe uses BGR]
img = img[:, :, ::-1]

# Mean subtraction & scaling [A common technique used to center the data]
img = img.astype( numpy.float32 )
img = ( img - IMAGE_MEAN ) * IMAGE_STDDEV

# Load the image as a half-precision floating point array
graph.LoadTensor( img.astype( numpy.float16 ), 'user object' )

 

Step 4:讀取並顯示NCS的推論結果

根據您想要如何將推論結果整合入應用中,您可以選擇blocking or non-blocking 函式呼叫兩者之一來載入上述步驟中的tensor並讀取推論結果。現在我們使用預設的 blocking 呼叫 (無需使用特定的API).

# Get the results from NCS
output, userobj = graph.GetResult()

# Print the results
print('\n------- predictions --------')

labels = numpy.loadtxt( LABELS_FILE_PATH, str, delimiter = '\t' )

order = output.argsort()[::-1][:6]
for i in range( 0, 5 ):
print ('prediction ' + str(i) + ' is ' + labels[order[i]])

# Display the image on which inference was performed
skimage.io.imshow( IMAGES_PATH )
skimage.io.show( )

 

Step 5:卸載graph與關閉裝置

為了避免記憶體洩漏與/或區段錯誤(segmentation fault),請記得關閉任何開啟中的檔案、資源以及 deallocate 使用中的記憶體。

graph.DeallocateGraph()
device.CloseDevice()

恭喜!您的DNN 影像分類器完成了。

 

還可以試試

延伸閱讀

相關文章

 

[Movidius神經運算棒]在Raspberry Pi 上執行 Intel® Movidius™ NCS應用程式

Original post from Intel Movidius NCS blog: “Run NCS Applications on Raspberry Pi”:https://movidius.github.io/blog/ncs-apps-on-rpi/ )

 

什麼是嵌入式板?

Intel® Movidius™ Neural Compute Stick (簡稱Intel® Movidius™ NCS) 是將Intel® Movidius™視覺處理單元(VPU)整合在USB裝置上。這樣就可對數百萬種低功耗的嵌入式裝置提供視覺智能,例如監控攝影機、可用手勢控制的無人機、工業級機器視覺設備等等。由於Intel Movidius NCS是針對低功耗應用所設計,因此將其與像是MinnowBoardUP BoardRaspberry Pi (RPi) 等低功耗嵌入式系統搭配是很合適的應用。

作者/攝影  曾吉弘
時間  2小時
成本
難度* * * * *
材料表

 

開發 vs 部署 Development vs Deployment

Raspbian (RPi專用的作業系統)提供了相當好的圖形化使用者介面(GUI),使用者可以接上螢幕、鍵盤滑鼠之後就可以直接操作Pi。雖然這種作法便於探索Pi的各種功能以及進行一些輕量化的開發作業,但在headless mode(不接上任何螢幕鍵盤滑鼠)下部署嵌入式產品/專案也是常見的做法。例如想要做一台Pi 追乒乓球機器人的話,顯然是無法接上螢幕鍵盤滑鼠的吧。

嵌入式產品的軟體一般來說都是在開發平台(例如桌上型/筆記型電腦或伺服器)上完成的,最後產生的二元檔再部署到嵌入式硬體上即可。為了要支持開發與部署這兩件事,Intel® Movidius™ Neural Compute SDK (NCSDK) 有兩種執行模式:

  1. Full SDK模式 – 在Pi安裝toolkit與API framework
  2. API-only模式 – 只在Pi安裝API framework
    • 安裝較快;但剖析(profiling)與編譯網路需在桌上型/筆記型電腦上完成

即便未安裝toolkit,API-only模式也讓您可以在Pi上開發各種app。API-only模式的限制在於無法剖析、檢查/驗證與編譯以及將神經網路編譯為二元graph檔。例如mvNCProfile、mvNCCheck與 mvNCCompile 都沒有安裝。

邊做邊學!

您會製作:

結合Raspberry Pi與NCS神經運算棒的嵌入式深度神經網路(DNN)影像處理系統。

您會學到:

  • 如何在Raspberry Pi的API-only模式下安裝NCSDK mode
  • 如何在Raspberry Pi上執行 NCS應用程式

您會需要:

  • Intel Movidius Neural Compute Stick 神經運算棒 – 購買請按我
  • 32/64位元的桌上型/筆記型電腦,作業系統須為Ubuntu 16.04 (“開發機器”)
  • Raspberry Pi (RPi) 3 Model B 單板電腦
  • 可外部供電的USB hub

如果還沒做的話,請在您的開發機器上安裝完整的NCSDK。請參考Intel Movidius NCS Quick Start Guide上的安裝步驟來完成。

開始吧!

Step 1:安裝Raspberry Pi為桌面模式,如下圖

樹莓派基金會取得最新的作業系統 Stretch img 檔之後,燒錄開機用的 sd卡。確認Raspberry Pi 開機並連上網路之後,使用以下指令更新系統:

注意:需使用 Raspbian Stretch,上一版 Jessie 確認不支援。

sudo apt-get update

Step 2:安裝Debian與Python相依套件

開啟terminal,輸入以下指令

sudo apt-get install -y libusb-1.0-0-dev libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compiler libatlas-base-dev git automake byacc lsb-release cmake libgflags-dev libgoogle-glog-dev liblmdb-dev swig3.0 graphviz libxslt-dev libxml2-dev gfortran python3-dev python-pip python3-pip python3-setuptools python3-markdown python3-pillow python3-yaml python3-pygraphviz python3-h5py python3-nose python3-lxml python3-matplotlib python3-numpy python3-protobuf python3-dateutil python3-skimage python3-scipy python3-six python3-networkx

您也可用pip package manager (pip3 install)來安裝python相依套件,但我發現用debian package manager (apt-get install python3-xxx)來安裝會比較快。

Step 3:下載NCSDK到Pi

開啟terminal,輸入以下指令

mkdir -p ~/workspace
cd ~/workspace
git clone https://github.com/movidius/ncsdk

Step 4:編譯並安裝NCSDK API framework

開啟terminal,輸入以下指令

cd ~/workspace/ncsdk/api/src
make
sudo make install

Step 5:使用NC App Zoo範例程式來測試安裝是否成功

開啟terminal,輸入以下指令

cd ~/workspace
git clone https://github.com/movidius/ncappzoo
cd ncappzoo/apps/hello_ncs_py
python3 hello_ncs.py

您應該會看到類似的輸出畫面:

Hello NCS! Device opened normally.
Goodbye NCS! Device closed normally.
NCS device working.

恭喜!您成功在Pi 的API-only模式下安裝NCSDK了。 

還能做什麼:部署已編譯的graph檔

Step 5中的hello_ncs_py範例程式只是開始NCS裝置就關閉了;它實際上並沒有執行任何推論。如果要在NCS上進行推論的話,we need a graph file that was generated by mvNCCompile,這是NCSDK Toolkit的一部分,但並沒有安裝在Pi上。

請改用已安裝完整SDK的開發用機器(桌上型/筆記型電腦),並根據 mvNCCompile doc page 上的教學,以GoogLeNet 來產生graph檔。將開發機器上的 ~/workspace/ncsdk/examples/caffe/GoogLeNet/graph 複製到 Pi 的 ~/workspace/ncappzoo/caffe/GoogLeNet/graph路徑下。

現在Pi 上有graph檔了,請根據NCS image classifier 的說明在Pi上執行影像分類器。

還可以試試

  • 在Raspberry Pi上執行NCS image classifier
  • 在RPi上編譯並執行C/C++ 範例程式:
    • ~/workspace/ncappzoo/apps/hello_ncs_cpp

延伸閱讀

相關文章:

 

 

[Movidius神經運算棒] 什麼!用電池就能驅動的深度學習推論引擎?

 

作者/攝影  曾吉弘
時間  3小時
成本
難度 * * * * * *
材料表
  • Intel Movidius Neural Compute Stick 神經運算棒
  • Raspberry Pi (RPi) 3 Model B 單板電腦 (OS需為最新的 Stretch)
  • Raspberry Pi 攝影機模組 (picam)或任何USB webcam
  • Raspberry Pi 觸碰螢幕
  • Raspberry Pi 觸碰螢幕外殼 [選配],也可用這款外殼:Pimoroni® case on Adafruit

(Original post from Intel Movidius NCS blog: “Battery-Powered Deep Learning Inference Engine”:https://movidius.github.io/blog/battery-powered-dl-engine/ )

 

加強邊緣裝置的視覺感知功能

鋰離子聚合物電池(LiPo、lithium polymer batteries)與嵌入式處理器兩者大大助長了物聯網(IoT)市場的發展。它們讓IoT裝置製造商得以在攜帶式(行動)邊緣裝置上加入更多功能,只要充電一次就可以執行相當長的時間。感測科技的長足進步,尤其是視覺相關的感測器、以及可處理來自這類感測器的超大量資料的軟體演算法,對於在更好的運算速度但又不能妥協於電池壽命與即時運算效能等方面上,這類行動邊緣裝置的需求受到了阻礙。

Intel® Movidius™ 視覺處理元件(Intel® Movidius™ VPU) 專門為可由電池供電的商用/企業級邊緣裝置提供即時視覺運算功能,這類裝置像是Google ClipsDJI® Spark droneMotorola® 360 cameraHuaRay® industrial smart cameras 等等。本文目標並非重製它們,而是要做一台小型手持裝置,運用深度神經網路(DNN)來即時辨識物體。

專案實體照片

 

邊做邊學!

您會製作:

一台可由電池(或行動電源)供電的DIY手持裝置,裝有攝影機與觸碰螢幕,可以辨識(分類)位於攝影機前方的物體。

您會學到:

  • 如何使用Raspberry Pi與Intel® Movidius™ NCS神經運算棒製作一台即時影像分類器。

您會需要:

  • Intel Movidius Neural Compute Stick 神經運算棒
  • Raspberry Pi (RPi) 3 Model B 單板電腦 (OS需為最新的 Stretch)
  • Raspberry Pi 攝影機模組 (picam)或任何USB webcam
  • Raspberry Pi 觸碰螢幕
  • Raspberry Pi 觸碰螢幕外殼 [選配],也可用這款外殼:Pimoroni® case on Adafruit

如果還沒完成的話,請在您的Raspberry Pi上安裝Intel Movidius NCSDK,完整SDK或API-only模式都可以。請參考Intel Movidius NCS Quick Start Guide來安裝完整SDK,或參考Run NCS Apps on RPi 來安裝API-only模式。

 

先看結果:

如果想先看看程式輸出結果的話,請用以下指令來取得範例程式並執行

$ mkdir -p ~/workspace

$ cd ~/workspace

$ git clone https://github.com/movidius/ncappzoo

$ cd ncappzoo/apps/live-image-classifier

$ make run

上述指另需在裝有完整SDK的系統中才可執行,單單安裝API framework 是不型的。另外也請確認已經在系統上接了一台UVC攝影機( 筆電內建攝影機也可運作).

這樣應該會在方形外框中看到即時串流影像。在攝影機前方放置一個物體並對齊方形。執行畫面請看本文最後的照片。

 

硬體建置

下圖是我硬體的實際照片:

 

Step1:設定螢幕

觸碰螢幕設定:請參考下方影片

畫面轉向:根據您所用的螢幕外殼或支架,您的畫面可能是倒過來的。如果是的話,請根據以下操作來將畫面反轉180度。

 

$ sudo nano /boot/config.txt



# 在/boot/config.txt 最後一行輸入以下內容,按下Ctrl-x存檔後離開

lcd_rotate=2



$ sudo reboot

如果您是使用USB攝影機的話請跳過STEP2

Step 2:設定攝影機

啟動CSI攝影機模組:請參考Raspberry Pi官方說明文件.

啟動v4l2 driver:基於不明原因,Raspbian預設不會去載入CSI攝影機模組用的V4L2 driver。本專題範例採用OpenCV-Python,作法是逐次使用V4L2來存取攝影機 (路徑:/dev/video0),所以我們得先載入V4L2 driver.

$ sudo nano /etc/modules



# 在/etc/modules最後一行輸入以下內容,按下Ctrl-x存檔後離開

bcm2835-v4l2



$ sudo reboot

來寫程式吧

我強力支持程式再運用,所以本專題的Python程式大部分是來自於[五步驟打造影像分類器]。兩者主要的差別在於我把每一個步驟整合在同一個函式中了,讀者可以比較一下。

本程式的架構不需要大幅修改就可以執行任何分類器神經網路。以下是一些使用者定義的參數:

  1. GRAPH_PATH:要進行推論的graph檔路徑
    • 預設值為 ~/workspace/ncappzoo/caffe/GoogLeNet/graph
  2. CATEGORIES_PATH:列出各分類輸出標籤的文字檔路徑
    • 預設值為 ~/workspace/ncappzoo/tensorflow/mobilenets/categories.txt
  3. IMAGE_DIM:所採用神經網路之影像尺寸規格
    • 例如 GoogLeNet 採用 224×224像素,AlexNet則是227×227像素
  4. IMAGE_STDDEV:您選用之神經網路所定義的標準差(scaling value)
    • 例如:GoogLeNet不採用任何比例因子,但InceptionV3的比例因子為128 (stddev = 1/128)
  5. IMAGE_MEAN:均值減法(Mean subtraction)是深度學習領域中常用的資料整理技巧。
    • 對ILSVRC資料集來說,B、G、R的平均值分別為102、117與123

在操作NCSDK API之前,需要先由 mvnc 函式庫匯入mvncapi 模組:

import mvnc.mvncapi as mvnc

如果您已經完成本連結的影像分類器的話,請跳過Step1 2 5

 

Step 1:開啟裝置

如同其他USB裝置,當您將NCS接上應用程式處理器 (執行Ubuntu的桌上型/筆記型電腦) 的USB埠,前者會被後者枚舉為一個USB裝置。我們可以呼叫API來檢視與開啟各個NCS裝置。

# —- Step 1: 開啟裝置並準備處理 ————-

def open_ncs_device():

   # 尋找 NCS裝置,如果沒有就離開程式

   devices = mvnc.EnumerateDevices()

   if len( devices ) == 0:

       print( ‘No devices found’ )

       quit()

 

   # 取得第一個枚舉裝置並開啟

   device = mvnc.Device( devices[0] )

   device.OpenDevice()

 

   return device

Step 2:將graph檔載入NCS

為了讓本專案簡單化,我們採用來自預訓練好的GoogLeNet模型的預編譯graph,這當您在ncappzoo資料夾中執行 make 指令時已經一併下載與編譯好了。先來看看如何將 graph 載入至NCS。

# —- Step 2: 將graph檔載入NCS ————————-

 

def load_graph( device ):

   # 讀取graph檔至緩衝

   with open( GRAPH_PATH, mode='rb' ) as f:

       blob = f.read()

 

   # 載入緩衝至NCS.

   graph = device.AllocateGraph( blob )

 

   return graph

 

Step 3:預處理來自攝影機的畫面

如影像分類器一文所述,分類器所用的神經網路會假設在影像中只有一個物體。但這件事在即時影像中很難掌控,除非您把桌面清理非常乾淨並採用單色背景。為了處理這件事,我們來偷雞一下。藉由OpenCV API在畫面上畫一個虛擬的盒子,並要求使用者把物件以手動方式對齊到盒子中;接著就切出這個盒子的區域並把該區域影像送到NCS進行分類。

# —- Step 3: 預處理影像 —————————————-

 

def pre_process_image():

   # 取得來自攝影機的一個畫面

   ret, frame = cam.read()

   height, width, channels = frame.shape

 

   # 切割畫面並調整大小

   x1 = int( width / 3 )

   y1 = int( height / 4 )

   x2 = int( width * 2 / 3 )

   y2 = int( height * 3 / 4 )

 

   cv2.rectangle( frame, ( x1, y1 ) , ( x2, y2 ), ( 0, 255, 0 ), 2 )

   cv2.imshow( 'NCS real-time inference', frame )

   cropped_frame = frame[ y1 : y2, x1 : x2 ]

   cv2.imshow( 'Cropped frame', cropped_frame )

 

   # 調整影像大小 [ 根據所選用的網路而異].

   cropped_frame = cv2.resize( cropped_frame, IMAGE_DIM )

 

   # 均值減法或縮放 [常見的資料置中方法].

   cropped_frame = cropped_frame.astype( numpy.float16 )

   cropped_frame = ( cropped_frame - IMAGE_MEAN ) * IMAGE_STDDEV

 

   return cropped_frame

 

Step 4:卸載影像/畫面至NCS來執行推論

感謝Intel Movidius VPU提供的高效能與低功耗,有了NCS之後,Raspberry Pi 唯一要做的事情就是預處理攝影機的畫面(step 3) 並丟給NCS。推論結果會以陣列來呈現,包含了各分類的機率值。透過 argmax() 可以取得 top prediction的索引值以以及相關於該索引的標籤內容。

# —- Step 4: 卸載影像,讀取與顯示推論結果 —————-

 

def infer_image( graph, img ):

   # 將所有分類目錄讀取至清單中

   categories = [line.rstrip('\n') for line in

                 open( CATEGORIES_PATH ) if line != 'classes\n']

 

   # 以半精度浮點數陣列載入影像.

   graph.LoadTensor( img , 'user object' )

 

   # 取得NCS推論結果.

   output, userobj = graph.GetResult()

 

   # 取得最高信心項目之索引值.

   top_prediction = output.argmax()

 

   # 顯示結果.

print( "Prediction: " + str(top_prediction)

         + " " + categories[top_prediction]

         + " with %3.1f%% confidence" % (100.0 * output[top_prediction] ) )

 

   return

如果您想看看NCS的實際輸出的化,請找到ncappzoo/apps/image-classifier.py並如以下修改:

# ---- Step 4: 讀取與顯示NCS的推論結果 -------------------

 

# 取得NCS推論結果.

output, userobj = graph.GetResult()

 

# 顯示輸出結果.

print( output )

...

 

# 顯示 top prediction.

for i in range( 0, 4 ):

   print( "Prediction " + str( i ) + ": " + str( order[i] )

         + " with %3.1f%% confidence" % (100.0 * output[order[i]] ) )

...

執行上述修改後的程式之後,它把整個會輸出陣列都秀出來。以下是使用37個分類的網路來進行推論的結果畫面,請注意陣列大小為37,且top prediction (73.8%)出現在陣列的30號位置(7.37792969e-01),如下紅字:

[ 0.00000000e+00   2.51293182e-04   0.00000000e+00   2.78234482e-04

0.00000000e+00   2.36272812e-04   1.89781189e-04   5.07831573e-04

6.40749931e-05   4.22477722e-04   0.00000000e+00   1.77288055e-03

2.31170654e-03   0.00000000e+00   8.55255127e-03   6.45518303e-05

2.56919861e-03   7.23266602e-03   0.00000000e+00 1.37573242e-01

7.32898712e-04   1.12414360e-04   1.29342079e-04   0.00000000e+00

0.00000000e+00   0.00000000e+00   6.94580078e-02   1.38878822e-04

7.23266602e-03   0.00000000e+00   7.37792969e-01   0.00000000e+00

7.14659691e-05   0.00000000e+00   2.22778320e-02   9.25064087e-05

0.00000000e+00]

Prediction 0: 30 with 73.8% confidence

Prediction 1: 19 with 13.8% confidence

Prediction 2: 26 with 6.9% confidence

Prediction 3: 34 with 2.2% confidence

 

Step 5:卸載graph檔並關閉裝置

為了避免記憶體洩漏與/或區段錯誤(segmentation fault),請記得關閉任何開啟中的檔案、資源以及 deallocate 使用中的記憶體。

# —- Step 5: 卸載graph檔並關閉裝置 ————————-

 

def close_ncs_device( device, graph ):

   cam.release()

   cv2.destroyAllWindows()

   graph.DeallocateGraph()

   device.CloseDevice()

 

   return

恭喜!DNN即時影像分析器完成囉!

 

專案實體照片

Rpi 上接了NCS神經運算棒與無線鍵盤發射器

RPi 與 Pi camera 的配置

分類”碗”的畫面

分類”滑鼠”的畫面

還能做什麼

  • 將本專案移植到執行Raspbian Lite 作業系統的 Raspberry Pi Zero上。
  • 本範例採用MobileNets來分類影像。試著加入分類年紀與性別的功能吧。
    • 提示:使用來自ncappzoo/caffe/AgeNet 與 ncappzoo/caffe/GenderNet 的graph檔。
  • 使用ncappzoo/SSD_MobileNet 或 Tiny YOLO,將本範例改為物件偵測(一張圖中有多個物體)

延伸閱讀

 

相關文章:

 

[ App Inventor + Microbit ] RGB LED控制

本文要介紹如何使用App Inventor來控制 micro:bit的 I/O腳位,以 RGB LED作為輸出應用。(原始碼下載請按我)

請務必先讓您的手機與Micro:bit進行藍牙配對,否則無法正確執行本範例。

作者/攝影  曾吉弘
時間  2小時
成本
難度 * * *
材料表
  • 個人電腦
  • App Inventor開發環境
  • 支援BLE的Android手機
  • BBC Micro:bit開發板
  • RGB LED燈

 

 

硬體清單

本範例所使用的RGB LED實際上是把紅綠藍三色的LED整合到同一個元件中,並且有陰極共用與陽極共用兩種規格。本範例使用的是共陰 RGB LED。以下是本專題的硬體清單:

  • BBC micro:bit 微控制板, 1
  • 麵包板, 1
  • 跳線, 4
  • RGB LED (共陰), 1

 

注意:如果您使用共陽RGB LED的話,最長腳要接到 micro:bit 的 3.3V腳位,並且 App Inventor 端給 1 會讓腳位變成低電位,這與共陰的行為剛好相反

 

 

範例影片

 

請根據以下資訊來連接Micro:bit RGB LED:

Micro:bitRGB LED (共陰)
GNDGND (最長腳、灰線)
P0R (紅線)
P1G (綠線)
P2B (藍線)

完成如下圖。

您可使用鱷魚夾或把線彎成U形來勾住Micro:bit腳位上的圓孔,當然後者比較容易鬆脫囉。

App Inventor

本範例要示範使用 app 來控制接在 micro:bit 腳位上的 RGB LED 發出四種不同的顏色。首先請登入 MIT App Inventor 並建立一個空白專案。.

 

以下步驟是根據App Inventor IoT分站上的基本範例開始一步步加入本專題所需的元件,當然也可以直接下載完整的 .aia。

 

首先要加入本專案所需的擴充檔。

  • 左側Palette區中,找到最下方的Extension,點選”Import extension” → “URL
    • 貼上micro:bit extension的網址: http://iot.appinventor.mit.edu/assets/com.bbc.micro:bit.profile.aix
  • 新增一個Microbit_IOpin元件,設定其BluetoothDevice屬性為”BluetoothLE1” (別忘啦!)

接著加入本範例所需的元件:

  • 新增一個TableArrangement元件
    • 設定寬度為”Fill parent“、高度為”200 pixels“,row(列數)為2,最後設定column(行數)為3
    • 設定其Visible屬性為false,我們會在與micro:bit建立連線之後讓它顯示出來,才能點選按鈕來發送藍牙指令。
  • 新增五個按鈕到tablearrangement元件,將其文字分別改為”Red“, “Green“, “Blue“, “White“與”Off“對應不同的LED動作。

調整之後,您的畫面應該會類似下圖。有一點點不同沒關係,背景顏色、位置與顏色都可以修改,喜歡就好!

 

Blocks

 

STEP 1:連線後要求更新腳位狀態

BluetoothLE1.Connected事件中,我們顯示連線確認訊息,並設定micro:bit腳位為”digital output“,這是因為我們要控制RGB LED所以得這麼作。在此會用到三個Microbit_Io_Pin.ConfigurePin指令,分別設定pinNumber為0, 1, 2 (代表micro:bit的P0, P1與P2腳位),analog欄位設為false,input欄位設為false

仔細來看看Microbit_Io_Pin.ConfigurePin指令,它有三個參數:pinNumber (腳位編號), analog (true代表類比模式,false代表數位模式),input (true代表輸入,false為輸出)。

所以下圖是把micro:bit P0腳位設定為”數位輸出(digital output)“,可連接像是LED、繼電器這種數位輸出元件。更多micro:bit I/O腳位的詳細設定請參考:http://microbit.org/guide/hardware/pins/

下圖則是設定micro:bit P2腳位為”類比輸入(analog input)“。可連接旋鈕電位計、光敏電阻等元件。o this pin.

STEP2: 更新LED狀態的副程式

為了讓程式意讀易懂,我們使用副程式來管理控制micro:bit腳位狀態的多個指令。新增一個副程式(procedure),改名為”ledControl”。

 

接著點選藍色小齒輪來新增三個參數,分別改名為”r”, “g”, “b”。顯然這三個參數是用來代表micro:bit用來控制RGB LED的腳位狀態。

在副程式中加入三個Microbit_Io_Pin.WriteOutputPinData指令,每一個分別控制micro:bit一隻腳位的狀態。因此第一個指令請設定pinNumber為0,pinValue為 r 參數值。後兩者以此類推,完成如下圖:

STEP2: Button to light up red

按下Button_R按鈕會讓RGB LED亮起紅燈,作法是呼叫ledControl副程式並設定參數為(1, 0, 0),代表P0為高電位(1),P1 / P2 為低電位(0)。

STEP3: other buttons for different colors

另外四個按鈕的差別只在於參數差異,這樣您應該可以感受到使用副程式的號處了吧:

  • Button_G: (0, 1, 0) 亮起綠色
  • Button_B: (0, 0, 1) 亮起藍色
  • Button_W: (1, 1, 1) 亮起白色
  • Button_Off: (0, 0, 0) 熄滅.

STEP4: 中斷藍牙連線

點選ButtonDisconnect按鈕會中斷藍牙連線,會讓app回到初始狀態並等候下次連線。

操作

完成啦!請確認您的Android裝置與 micro:bit 已經藍牙配對好了。接著從App端去連線到 micro:bit,連線成功後會出現五個按鈕,點選不同按鈕就可以看到RGB LED亮起紅綠藍白四種顏色與熄滅,如果亮起的顏色不對或是無法亮起請再次檢查接線是否鬆脫與腳位順序是否正確。

 

小挑戰

  1. 試著讓RGB LED更繽紛,例如紅色與藍色腳位同時點亮,就是紫色的光芒喔。
  2. 加入SpeechRecognizer元件,用語音來控制RGB LED。

 

 

相關文章:

使用 Intel® Movidius™ Neural Compute Stick搭配Raspberry Pi 3執行MobileNets

(Original post from Intel Movidius NCS blog: “MobileNets on Intel® Movidius™ Neural Compute Stick and Raspberry Pi 3″:https://movidius.github.io/blog/ncs-rpi3-mobilenets/  

作者/攝影  曾吉弘
時間  2小時
成本需要上網下載的費用
難度 * * * * *
材料表

引言

深度學習之於邊緣運算讓世界各地的創新開發者得以建立各種架構與裝置來解決問題,並提出像是內建了Intel Movidius VPU 的 Google Clips Camera 這樣的創新方案。邊緣裝置應該便於攜帶、低功耗但同時又能為深度學習神經網路提供一定彈性的架構。本文將說明如何使用使用 Intel® Movidius™ Neural Compute Stick (神經運算棒) 搭配Raspberry Pi 3 做為深度學習邊緣運算的解決方案。

應用多個現成的分類網路,有許多具備一定擴充性的網路都提供了一定的客製化程度,針對使用者不同的功耗、運算與精確度需求來提供合適的方案。Google MobileNets就是這類網路其中之一,提供兩個可修改的變數讓您自訂網路來解決問題,並可在這類型低功耗裝置上實現高運算效能與高精確度。

 

* 資料來源:https://research.googleblog.com/2017/06/mobilenets-open-source-models-for.html

第一個變數為輸入影像的大小。如上圖,複雜度與精確度會隨著輸入大小而改變。Google 已針對不同影像尺寸提供了預先訓練好的ImageNet分類檢查點。

第二個變數則稱為depth multiplier。雖然網路架構維持不變,調整這個depth multiplier 會影響每一層的頻道(channel) 數量,進而影響網路複雜度並精確度與 frame rate。一般來說,網路的 frame rate 愈高,精確度就愈低。

接下來會介紹如何安裝並執行NCSDK、下載NCAppZoo,以及在 Intel Movidius 神經運算棒上執行MobileNet。最後要使用NCAppZoo 來示範benchmarkncs app 的用途,它可收集一或多個接在電腦 (例如 Pi ) 上的Intel Movidius 神經運算棒之執行效能。

 

所需硬體

Raspberry Pi 3、電源與記憶卡 (外殼建議有,但非必須)
  1. Raspberry Pi 3 外殼
  2. Raspberry PI 3 Model B
  3. micro SD記憶卡 (建議16g以上)
  4. 支援 HDMI 接頭螢幕 (或其他規格的轉接線)
  5. 鍵盤滑鼠
  6. Intel Movidius Neural Compute Stick

 

按部就班

Step 1:安裝最新的Raspberry Pi 3 Raspbian OS

樹莓派基金會取得最新的作業系統 Stretch img 檔之後,燒錄開機用的 sd卡。確認Raspberry Pi 開機並連上網路之後,使用以下指令更新系統:

注意:需使用 Raspbian Stretch,上一版 Jessie 確認不支援。

sudo apt-get update

Step 2:將 Intel Movidius神經運算棒插上Raspberry Pi 3 的 USB接頭

Step 3:安裝Intel Movidius Neural Compute SDK (NCSDK):

請用以下指令來下載並安裝NCSDK

git clone https://github.com/movidius/ncsdk
cd ncsdk
make install
cd ..

Step 4:取得NCAppZoo github

git clone https://github.com/movidius/ncappzoo
cd ncappzoo

Step 5:執行benchmarkncs.py來收集MobileNets執行效能

cd apps/benchmarkncs
./mobilenets_benchmark.sh | grep FPS

結果

在這些選項中,您一定可以根據自身的精確度與效能需求找到最適合的網路。下圖 (來源:Google’s blog) 可看出使用ImageNet分類時,精確度與效能的消長關係。圖中也可看到 Intel Movidius神經運算棒的效能(單位FPS,數據未經Intel原廠確認)。

* Network Accuracy Data from Google’s Blog https://research.googleblog.com/2017/06/mobilenets-open-source-models-for.html

如上圖,Raspberry Pi 3 搭配 Intel Movidius神經運算棒(橘色線)與單單使用Raspberry Pi 3 相比,前者執行 MobileNets 的FPS速度為後者的9倍 (參數皆為DepthMultiplier=1.0 / 輸入影像大小 = 224×224 / Top5 accuracy of 89.5%)。

Raspberry Pi 是一個相當不錯的開發平台。雖然單單使用Raspberry Pi 3 在推論上已能達到相當不錯的frame rate,NCS 卻硬是把效能提升一個量級,並讓這個平台在執行CNN-based的神經網路時的效能更好。如上表,Intel Movidius神經運算棒搭配Raspberry Pi 3 來使用 MobileNets進行推論運算的效能成長了 718% 到 1254%。

[2017年度大回顧] 看看我們做了哪些計畫吧!

2017年團隊們挑戰了大大小小的嘗試,包含開立新課程、新書籌備、物聯網專案計畫、企業夥伴們的合作、參與世界各地Maker Faire、籌辦華山展覽以及年度合作活動等等(開創活動新品牌-放課後Fun School),2018我們也會持續提供優質服務內容給大家,還請多多支持哦。

作者/攝影 曾吉弘/Cavedu教育團隊各同仁
時間 2017整年度

2017年做了很多好玩的事情也有新嘗試,首先要說的是我們提供的服務內容:

  • 教師研習及學習課程(CAVEDU)
  • 專題設計製作(CAVEDU,可委託外包)
  • 物聯網空間/功能規劃(CAVEDU,可委託外包)
  • IoT雲服務應用(CAVEDU)
  • 書籍撰寫/出版(CAVEDU、翰吉,可委託出版)
  • 工作坊活動及合作策展(放課後)
  • 開發板與周邊商品販售(機器人王國)

新課程研發

教學場域一直在變化,但初衷不變。我們從小學、國中高中及大學相關課系(資訊、機械及電子與數位互動藝術等)到成人學習都有對應的科技動手做課程。也在T客邦創客基地與 Fablab Taipei 開設晚間的帶狀課程。主題從簡易程式概念培養、基礎電子電路設計、手機app、機器人控制與雲端應用開發等等,相當豐富喔!

課程分類請按我

 

新合作夥伴

1+1 > 2,很高興能與DFRobot、Intel、Mouser與RS Components 推廣相關產品服務,也密切與MTK、QNAP、Zyxel 針對物聯網教室提供規劃方案,老師們不用再為了新程式、新開發板傷腦筋,問我們就對了!(公司名稱按字母順序排列)

 

全產品研發計畫

 

針對108課綱,我們推出了[物聯網教學箱]與[RK物聯網擴充板],兩者都是針對教室情境使用,元件管理非常方便。

另外RK物聯網擴充板則可同時支援LinkIt Smart 7688 Duo與 LinkIt 7697這兩套我們這兩年開課最熱門的物聯網開發板,接腳可外接麵包板、Seeed Studio Grove接頭的感測器(擴充板中央區域),以及3 pin接頭(擴充板右側)。

 

新書出版

今年完成了五本書:出版一本書:[實戰物聯網:LinkIt Smart 7688 Duo],另外翻譯了四本書籍。明年預計出版的書籍主題有物聯網(使用LinkIt 7697)、基礎電路設計(使用Mouser MultiSIM BLUE)以及AI等主題。

 

翻譯書籍列表:

CAVEDU書籍列表

 

創辦活動品牌「放課後」

2017年5/27, 28我們在華山文創園區舉辦放課後,邀您重拾下班下課後的快樂。攤位總覽影片請點我

也參加了香港、新加坡、西安與東京等Maker Faire,並受邀分享與辦理許多工作坊向很多人見證台灣的能量。

 

阿吉老師赴MIT擔任訪問學者

CAVEDU與 MIT App Inventor小組(屬於CSAIL(電腦科學與人工智慧實驗室)下)一直有密切的合作。阿吉老師於今年十月受邀擔任訪問學者,協助整合物聯網開發板至App Inventor中、元件測試與教材編寫等等。大家可以關注阿吉老師的MIT生活日誌以及12/17 FabLab Taipei的分享影片

 

阿吉老師@MIT App Inventor team list

 

新成員招募中

為擴大各式計畫2018年度團隊將招募開發工程師及課程講師等新血,如果您想為台灣的教育出一份力並喜歡我們的風格,歡迎加入我們!

請備妥履歷寄到 service@cavedu.com

2017 活動紀錄請按我

 

相關文章: