Category Archives: 物聯網

[ 翻譯 ] 2018.12.05- 根據樹莓派基金會,Raspberry Pi 3 Model A+會是3+平台的最終產品?!看快來看看他們的說明

翻譯

宗諭

審閱

CAVEDU教育團隊、Jenny

圖片

翻攝自樹莓派基金會網站,特此致謝!

說明

感謝英國樹莓派基金會授權翻譯,特此致謝!原文請見

 

我們(在此指英國樹莓派基金會)部落格的忠實讀者應該記得,在2014年,Raspberry Pi 1 Model A+緊接著在Raspberry Pi 1 Model B+後推出。藉由將RAM減低至256MB,並且移除USB集線器及乙太網路控制器,我們能把價格降至更低,並將Raspberry Pi 1 Model A+壓縮至一個HAT的大小。

 

雖然我們並未在Raspberry Pi 2或3推出A+的規格,但這已是其中一項,我們最常被詢問「到哪裡去了」的產品。現在,隨著Raspberry Pi 3 Model B+的批量發貨,我們終於能藉由推出Raspberry Pi 3 Model A+,填補上這個產品空缺。

 

Raspberry Pi 3 Model A+ incorporates most of the neat enhancements we made to its big brother, and features:

  • 1.4GHz 64-bit quad-core ARM Cortex-A53 CPU
  • 512MB LPDDR2 SDRAM
  • Dual-band 802.11ac wireless LAN and Bluetooth 4.2/BLE
  • Improved USB mass-storage booting
  • Improved thermal management

 

Raspberry Pi 3 Model A+ 融合了大部分我們為Raspberry Pi 3 Model B+所做的功能強化,並且具備以下特點:

  • 1.4GHz 64位元四核心ARM Cortex-A53 CPU

  • 512MB LPDDR2 SDRAM

  • 雙頻11ac無線LAN和藍牙4.2/BLE

  • 經過改善的USB大量儲存啟動

  • 經過改善的散熱管理

 

正如它的大哥Raspberry Pi 3 Model B+,Raspberry Pi 3 Model A+根據FCC的規定,其整塊電路板被認證為無線電模組。而這樣的經過認證,將大幅減低以樹莓派為基礎的產品進行符合性測試的成本。

 

就某方面而言,Raspberry Pi 3 Model A+對我們來說是個痛苦的產品。回朔至今年三月,我們解釋了為何3+這個平台會是「經典」樹莓派的最終迭代:因為不論我們接下做什麼,都必然不會是一種進化,因為再次進化需要新的核心晶片,並在新的製程上運用新的記憶體技術。所以,3A+算是一次瀟灑地收尾,既回應了其中一項顧客最常提出的詢問,同時也「清理了甲板」,讓我們可以開始認真思考接下來如何。

 

針對Raspberry Pi 3B、3B+及Raspberry Pi Zero,我們官方推出的機殼非常受歡迎,所以,我們當然想針對3A+推出機殼。然而,我們目前尚未準備好,但如下圖所示,機殼非常美觀,我們期待可以在12月初供應給大家,剛好作為送給朋友的聖誕小禮物。

圖1

 

備註:如果您想要購買樹莓派相關產品,歡迎洽詢機器人王國商城

 

相關文章

[ 介紹文 ] 2018.11.28- 進擊的Tank-Go!! V5.3 紅外線對戰坦克

撰文

Niko Yang

圖片

Niko Yang

說明

感謝網友Niko Yang撰稿,特此致謝!

 

玩坦克大戰是許多朋友年輕時期經歷過的美好回憶,無論是從任天堂紅白機或後續的電視遊樂器,坦克大戰皆是熱門的題材之一,也是與朋友或家人共享歡樂的好遊戲。在電視遊樂器之外,至各電商賣場搜尋「對戰坦克」,也有許多遙控坦克販賣,可見坦克類遊戲受歡迎的程度。

 

緣由

欣逢南科AI_ROBOT自造基地交流平台,於6月份在台南舉辦「自造機器人的一百種樣貌」研討會,由KEVIN WANG 對整個MINI-PLAN的進化與發展歷史進行分享。筆者也從研討會認識當前機器人的種類,以及對聯發科技的LinkIt 7697開發板有了第一次接觸。在那麼多的機器人中,最吸引筆者的莫過於TANK GO系列了。

圖1

 

令人驚喜的寶物

目前各種相容於Arduino 的開發板如雨後春筍般出現,有點讓人難以選擇,各家開發板各有千秋。研究各類開發板後,筆者選擇了LinkIt 76XX系列,除了它支援BLE藍芽外,也支援Wi-Fi控制,再加上由MINI-PLAN演進的ROBOT-SHIELD V2 擴充板於2017年10月開始販售,使LinkIt 7697如虎添翼,整體元件結合支援10組PWM及兩組DC馬達同時控制,也支援I2C介面擴充,並由兩顆 270F 2.7V 260mah電容器(Lithium Capacitor)提供電力,不需擔心電源過充或過放電力的問題。也因為是電容器,官方規格的深度循環可達3000次,相對於手機鋰電池的500次循環,連續使用多達六倍以上的時間,也不需擔心起火或爆炸問題。運用在坦克製作上,自然被筆者列為優先考慮的組合。

 

參考文章:

CAVEDU [LinkIt 7697] 認識LinkIt 7697,你會需要這一篇!

圖2

 

資源分享

得到第一把鑰匙後,從網站https://www.thingiverse.com/,看到SMARTS 系列的3D列印件有很大發展空間,同時在YouTube上看見由Chiou ShinWei(George)大神,分享3D列印件和完整的安裝流程,以及零件表和程式碼的分享,皆讓筆者在坦克製作上節省相當多時間。從3D列印領域至控制板,乃至於學生時代學習的知識都要一併用上。在聯發科技網頁上,有很詳細的介紹,以及工程師的技術問題回覆和支援。

 

ShinWei Chiou(George)

V4 版程式和3D模型檔案和零件清單

https://github.com/GeorgeChiou/Robot-Shield-V2.0

 

安裝說明和零件清單

https://youtu.be/rpaQaJ1GmJE

圖3

 

魔鬼藏在細節裡

筆者原以為萬事俱備,結果發現有些事情仍是要嘗試過才能瞭解箇中奧妙。第一個問題是戰車鋁帶元件使用PLA當承軸,但PLA遇到濕氣經過一至二星期後,有30%的PLA承軸斷裂,想拿金屬螺絲取代卻又太重。所以,最後筆者使用木質牙籤,並點上微量的瞬間接著劑在鋁帶元件內側稍做固定。或是由Mike Tsai 網友所建議,用PEG的3D線材取代也可以。

 

在砲台旋轉上,原本使用24AWG線材,但其表皮太硬,導致戰車砲塔旋轉會因線材而上下晃動,馬上更換舵機專用線給紅外線IRDA和紅外線接收IRM-3638N3連接線使用,解決了問題。

 

不用熱熔膠而使用UHU透明膠連接,避免3D列印零件因高溫而變形,以及日後需修改的拆裝;在N20馬達的齒輪本體也塗上田宮齒輪油,塗上後N20馬達瞬間耗電流下降許多,齒輪轉動聲音也慢慢變小。自造的迷人之處,就在於不斷有新挑戰出現,卻總能一一克服。

圖4

 

性能再強化

在筆者與家人玩TANK-GO一段時間後,收集了大家的建議進行一次修改及強化性能,於是便著手發展V5.3版的程式碼。首先在手機操控介面上,針對按鈕位置重新編列,以及針對功能進行調整,不僅操作便利更適合長時間使用。可惜聯發科技的 LRCONTROL 目前暫時只支援六種顏色(RC_ORANGE, RC_BLUE, RC_GREEN, RC_PINK, RC_GREY, RC_YELLOW)。

https://docs.labs.mediatek.com/resource/linkit7697-arduino/en/developer-guide/using-linkit-remote/lremote-control-classes

 

同時戰車砲塔旋轉角度的左右方向,也進行一致性調整;在MPFPLAYER 聲音按鍵上,也更改為每階2格度調整,並限制最大至28 (MAX:30),避免小的喇叭單體破音,以及夜間播放音樂聲量的細部調整。

 

朋友建議加上兩顆燈光(LED)做為彈藥用盡或生命值歸零的提醒,也避免因緊張一直按鈕卻無動作對應。經筆者考慮,除了LED作為狀態顯示外,也加入兩段系統語音,例如:補彈藥和修理進行提示。其他細節可參考GITHUB上的README完整說明。

 

Niko Yang V5.3 版修改軟體和電子零件焊接圖片

https://github.com/yangniko137/Tank-Go-V5?fbclid=IwAR0NseA_2R2cRFvZRvyqWwNXehPig6qMT5wTly-tnJPS84LIOpKXyL0n61k

圖5

 

未來發展

科技發展鮮少有停頓的時刻,在筆者看過「少女與戰車(GIRLS und PANZER)」影片後,發覺還有許多功能值得更新,例如生命值歸0後,升起投降用的白色旗子⋯⋯等等。

 

兩顆超大電容提供激烈對戰達40分鐘左右,但把戰車當成MP3播放器聽CD書,這時便需要插5V市電供應,也考慮以14650或18650電池和保護板供電,省去電線纏繞的困擾。

 

對戰時的遮蔽建築物連同戰車收納的盒子,也可考慮製做成組合式,並且各戰車語音可以男女分開⋯⋯等等。這些都是很好的建議,以及下一步更新的方向。

圖6

 

結論

舉一反三,除了坦克外也順便發展FPV加上攝像頭及圖傳,加上接收和螢幕就可在家中探險。自造除了腦力激盪外,也藉由製作過程認識新的學問及志同道合的朋友。因此,謹藉由本篇文章,感謝無私分享的Maker們。

圖7

 

備註:如果您想要購買 LinkIt 7697Robot Shield,歡迎洽詢機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.20- 方便且又品質好!樹莓派遠端監控3D印表機和列印工作利器——OctoPi

翻譯

宗諭

審閱

曾希哲老師、CAVEDU教育團隊

圖片

CAVEDU教育團隊

主題圖片:擷取自OctoPrint官網,特此致謝!

說明

原文請見。感謝曾希哲老師協助,特此致謝!

 

Hello!各位讀者安安!今天要跟大家介紹的是OctoPi

 

什麼是OctoPi呢?

看到字面上有Pi,應可猜測到與Raspberry Pi有關聯。的確,OctoPi是OctoPrint針對3D印表機的樹莓派軟體發佈。它包含了針對3D印表機的主軟體OctoPrint,還有mjpg-streamer with RaspiCam support。後者的作用是提供3D列印的即時影像,以及產生縮時影像。

 

蝦咪係OctoPrint?

OctoPrint是一個針對3D印表機的即時網路介面,讓使用者可直接從瀏覽器監控3D印表機和列印工作,而且是一個完全開放原始碼的軟體。

 

為什麼要使用OctoPi呢?

根據小編請教花蓮的曾希哲老師,他表示:「因可以遠端傳檔案進OctoPrint,然後列印,不需要拿SD卡跑來跑去。另外,可遠端監看印表機的列印狀況,監看的內容包括:溫度、列印路徑、列印畫面,讓使用者不需跑來跑去觀看列印進度。而且很重要的是,用Octopi控制3D列印,效果很好!」

 

推薦使用硬體:Raspberry Pi 3

請讀者們特別注意,OctoPrint官方並不推薦使用Raspberry Pi Zero W,因為當頻寬被使用時,WiFi介面會影響效能,導致3D列印品質下降。

圖1

 

現在,就讓我們來安裝OctoPi吧:

Step1:解壓縮您的圖像,然後把圖像安裝入一張SD卡中。

 

Step2:設定您的WiFi。當以隨身碟方式使用SD卡時,編輯SD卡根目錄上的octopi-wpa-supplicant.txt

 

Step3:從SD卡讓您的樹莓派開機

 

Step4:透過SSH登入您的樹莓派(如果您的樹莓派支援ZeroconfSSH位於octopi.local,或是路由器指定的IP位址)。預設的username是「pi」,預設的密碼則是「raspberry」。如果您想要改變密碼的話,請運用指令passwd。

 

Step5:為了要安裝外掛程式,pip位在/home/pi/oprint/bin/pip。因此,安裝指令應該會是這樣:/home/pi/oprint/bin/pip install <plugin-uri>

 

需要注意的是,OctoPrint主程式位於http://octopi.localhttps://octopi.local,既然SSL憑證由自己核發,並於首次開機時產生,當您在https://octopi.local這個位址時,您會收到一則憑證警告,請忽略它。

 

如果樹莓派偵測到USB網路攝影機或樹莓派攝影機,MJPG-streamer將自行啟動作為網路攝影機的伺服器。如果需要的話,您可以在http://octopi.local/webcam/?action=stream下,分別找到MJPG-streamer與SSL憑證,或直接在設定連接埠8080:http://octopi.local:8080/?action=stream

 

同場加映

然而,除了樹莓派之外,讀者們也可把OctoPi安裝在LinkIt 7688上,透過7688無線控制3D印表機。

圖2 LinkIt 7688

 

圖3 LinkIt 7688 Due加上擴充板

 

但要怎麼做呢?請參考以下步驟:

Step1:將手邊的LinkIt 7688,由AP mode轉成Station mode。

 

Step2:電腦需要與LinkIt 7688在同一網段

 

Step3:運用電腦進行IP scan,尋找到LinkIt 7688的IP。

 

Step4:連線登入

 

Step5:更新

 

Step6:將OctoPi下載至USB隨身碟

 

Step7:安裝OctoPi

 

Step8:將LinkIt 7688轉回AP mode

 

Step9:進行連線測試

 

這篇文章的介紹就到此,讀者們可以拿樹莓派或LinkIt 7688試試看。

 

備註:如果想要購買樹莓派LinkIt 7688,歡迎洽詢機器人王國商城。

 

相關文章

[ 翻譯 ] 2018.11.19- Intel最新推出 NCS 2 第二代神經運算棒! 打造更聰明AIoT裝置

翻譯

宗諭

審閱

阿吉老師

圖片

截圖自Intel第二代神經運算棒介紹影片,特此致謝!

說明

感謝Intel授權翻譯,原文連結請見這裡,特此致謝。

 

Intel is hosting its first artificial intelligence (AI) developer conference in Beijing on Nov. 14 and 15. The company kicked off the event with the introduction of the Intel® Neural Compute Stick 2 (Intel NCS 2) designed to build smarter AI algorithms and for prototyping computer vision at the network edge. Based on the Intel® Movidius™ Myriad™ X vision processing unit (VPU) and supported by the Intel® Distribution of OpenVINO™ toolkit, the Intel NCS 2 affordably speeds the development of deep neural networks inference applications while delivering a performance boost over the previous generation neural compute stick. The Intel NCS 2 enables deep neural network testing, tuning and prototyping, so developers can go from prototyping into production leveraging a range of Intel vision accelerator form factors in real-world applications.

11月14、15日,Intel正在北京主辦自家首次的「人工智慧開發者大會」。Intel在會議開場便向與會者介紹了 Intel® Neural Compute Stick 2 (Intel NCS 2 第二代神經運算棒,本文後簡稱NCS2)。NCS2是為了建構更聰明的AI演算法,以及在網路邊緣節點上的電腦視覺原型開發所設計。NCS2的運作是以 Intel® Movidius™ Myriad™ X 視覺運算單元(VPU)為基礎,並支援Intel® Distribution of OpenVINO™ toolkit,能加速深度神經網路推論應用的開發,同時效能相較於第一代的神經運算棒提升得更多。NCS2可做到深度神經網路的測試、調整與原型開發,使開發者可以實際利用一系列不同大小的Intel視覺加速器,幫助您從原型一路走到商品化。

 

“The first-generation Intel Neural Compute Stick sparked an entire community of AI developers into action with a form factor and price that didn’t exist before. We’re excited to see what the community creates next with the strong enhancement to compute power enabled with the new Intel Neural Compute Stick 2.”
–Naveen Rao, Intel corporate vice president and general manager of the AI Products Group

Intel副總裁暨AI事業部總經理Naveen Rao表示:「第一代的神經運算棒的外觀造型和價格已可說是前所未見,也鼓勵了非常多AI開發者來實際運用它。我們十分樂見伴隨著第二代神經運算棒的運算能力大大提升之後,整個AI開發者社群在未來能創造出更多令人驚艷的專案或產品!」

 

What It Does: Bringing computer vision and AI to Internet of Things (IoT) and edge device prototypes is easy with the enhanced capabilities of the Intel NCS 2. For developers working on a smart camera, a drone, an industrial robot or the next must-have smart home device, the Intel NCS 2 offers what’s needed to prototype faster and smarter.

NCS2的功用為何?

隨著Intel NCS2的效能大幅提升,開發者將更容易將電腦視覺與AI人工智慧整合進物聯網(IoT)及邊緣裝置的原型中。針對智慧相機、無人機、工業用機器人,或是未來每個家庭都必備的智慧家庭裝置,Intel NCS2更提供了開發者能夠讓原型更快更智慧設計之所需。

 

What looks like a standard USB thumb drive hides much more inside. The Intel NCS 2 is powered by the latest generation of Intel VPU – the Intel Movidius Myriad X VPU. This is the first to feature a neural compute engine – a dedicated hardware neural network inference accelerator delivering additional performance. Combined with the Intel Distribution of the OpenVINO toolkit supporting more networks, the Intel NCS 2 offers developers greater prototyping flexibility. Additionally, thanks to the Intel® AI: In Production ecosystem, developers can now port their Intel NCS 2 prototypes to other form factors and productize their designs.

NCS2的外表看來就像個USB隨身碟,內在卻蘊含許多最新科技。由最新一代的Intel VPU(Intel Movidius Myriad X VPU)為基礎,NCS2是第一個標榜為神經運算引擎的產品 — 能提供更多運算效能的神經網路推論專用加速器。。結合了由Intel所推出,且支援更多網路的OpenVINO工具包,NCS2給予開發者在原型開發上更大的彈性。此外,感謝Intel® AI: In Production 生態系,開發者現在可將他們的Intel NCS2原型以不同的外觀造型來呈現,並將自己的設計產品化。

 

How It Works: With a laptop and the Intel NCS 2, developers can have their AI and computer vision applications up and running in minutes. The Intel NCS 2 runs on a standard USB 3.0 port and requires no additional hardware, enabling users to seamlessly convert and then deploy PC-trained models to a wide range of devices natively and without internet or cloud connectivity.

NCS2如何運作?

只要一台筆記型電腦與一隻NCS2,開發者馬上就能進行各種AI和電腦視覺應用!NCS2只要接上標準的USB 3.0連接埠即可,不需要額外的硬體設備,讓使用者能把原本在PC上訓練的模型轉換並部署至各種裝置上,過程中不需連接網際網路或雲端服務。

 

The first-generation Intel NCS, launched in July 2017, has fueled a community of tens of thousands of developers, has been featured in more than 700 developer videos  and has been utilized in dozens of research papers. Now with greater performance in the NCS 2, Intel is empowering the AI community to create even more ambitious applications.

Intel第一代神經運算棒是在2017年7月推出,已經造福了數以千計的開發者,有多達700位開發者拍了影片來介紹它,更在數十份研究報告中被使用。現在,伴隨著第二代神經運算棒的更強大效能,Intel正努力協助AI人工智慧社群來創造出各種更具雄心的應用。

 

備註:如果想要購買Intel NCS相關產品,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.15- micro:bit全球大挑戰 台灣之光們準備好了嗎?

翻譯

宗諭

審閱

CAVEDU教育團隊

圖片

擷取自micro:bit官網,特此致謝!

說明

原文請見,特此致謝!

 

Can you help solve a problem in your community by using the BBC micro:bit?You could win an all-expenses-paid trip to London to take part in the amazing micro:bit Global Challenge day and start to make a real difference in the world!

你可以運用BBC micro:bit,幫助您所屬社群解決問題嗎?如果你願意的話,就有機會贏得一趟免費前往英國倫敦的旅程,參加超級精彩的micro:bit全球挑戰日,並開始讓這個世界有所不同!

 

大挑戰

The Sustainable Development Goals or Global Goals have been created to reduce inequality and to create a world that is fair for everyone, where no-one is left behind. We want you to think about how you can help achieve goal 3 (Good Health and Wellbeing)4 (Quality Education), and 16 (Peace, Justice and Strong Institutions) by focusing on the themes, non-communicable diseases and safety.  How can we ensure that people stay healthy and choose healthy lifestyles? How do we make sure all communities are safe for people to carry out their jobs and attend school?If you want to find out more about the themes, take a look at our teaching resources.

請參考「世界最大的一節課(World’s Largest Lesson)」網站上的可持續發展目標或全球目標,設立這些目標的目的,是為減少不平等並產生一個對每個人都公平的世界,在這個世界中沒有一個人被遺棄。我們期盼你思考,你如何能協助達成目標三(良好的健康與幸福狀態)目標四(素質教育)目標十六(和平、正義及強而有力的公共機構),藉由聚焦於非傳染性疾病與安全這個主題。我們如何確保人們保持健康並選擇健康的生活方式呢?我們如何確保所有的社群對人們都是安全的,使他們可以工作並上學呢?如果你想進一步了解這些主題,歡迎看一看我們的教學資源

圖1

 

開始動手吧!!

By using the BBC micro:bit, we want you to design and make a solution to a problem that affects you and your community or another community somewhere in the world.

透過使用BBC micro:bit,我們盼望你針對一個影響你和你所屬社群的問題,或是一個影響世界上其它角落另一個社群的問題,設計並製做出解決方案。

 

This could be a device that will encourage people to get active and stay healthy. It could be a recipe plan to help your family eat well. Could you help people decide which exercise would suit them best?

解決方案可以是一個裝置,透過它鼓勵人們積極活躍並保持健康;也可以是一項食譜計畫,讓你的家人吃得豐盛而健康。也許你可以協助人們決定什麼樣的運動最適合他們。

 

Or perhaps you and your friends need some more lights for your bikes that start working when the sun sets? Is crossing the road a problem at your school? Could there be a system that helps make it safe? Is there a device that helps prevent bullying at school?

又或許你與朋友在日落時騎腳踏車,需要更多燈光,⋯⋯,有想過什麼裝置能防止校園霸凌嗎?

 

Whatever the issue is, we’re interested to hear how you would go about solving it. The micro:bit can do so many things so use your imagination and be as creative as possible!

不論問題為何,我們非常有興趣聆聽,你如何挺身而出並解決這個問題!micro:bit可以達成許多事情,所以請運用你的想像力並盡可能發揮創意!

 

Don’t worry if the problem you want to work on seems small. Remember that small changes can have a big impact!

不必擔心你想要解決的問題太微小。請務必記得,小小的改變能產生巨大的影響!

圖2

 

誰可以參加?

The competition is open to young people across the world aged 8-12. You may work in a team or as an individual on the challenge. Unfortunately only one person will be able to travel to the Global Challenge finale event, so make sure you discuss this with any team mates in advance. The competition is free to enter and you don’t even have to have a micro:bit to take part. If you’ve got an idea, put it down on paper or use the Let’s Code page. We’ll accept photos of your plans, too. For full competition details and rules, please read the Terms and Conditions.

這項競賽開放給全球8-12歲的少年人參加,你可以組隊參加或個人挑戰。但如果你是組隊挑戰的話,團隊中只有一位成員能前往英國參加最終挑戰。這項競賽完全免費,你甚至不需要擁有一片micro:bit。如果你有一個好點子,請在白紙上寫下它,或是使用Let’s Code網頁,我們也將接受你計畫的照片或截圖。如果你想要了解競賽的全部細節和規則,請參考這裡

 

所以,請務必記得,在11月16日(GMT)下午五點前(如何換算成台灣時間,請參考這裡),填寫完參加表單並提交點子或計畫

 

最後,祝福各位參賽者,加油!!!

 

備註:如果想要購買micro:bit或相關產品,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.13- 根據MakeCode團隊,針對micro:bit設計的Window 10 App beta版正式發佈(有需要的趕快去下載!!!)

翻譯

宗諭

審閱

阿吉老師

圖片

擷取自Microsoft Store

說明

micro:bit教育基金會臉書貼文請見,特此致謝!

 

 

「Today the ‘#MakeCode for micro:bit’ Windows 10 App is out of beta! It’s free and you can find it via our site below…」

幾小時前,micro:bit教育基金會的臉書粉絲專頁發佈一則貼文,內容大意為:「MakeCode團隊針對micro:bit設計的Window 10 App beta版正式發佈,可在Microsoft Store免費下載。在micro:bit官網的Let’s Code頁面有進一步介紹,就讓我們一起來看看:

 

Program the micro:bit using Javascript Blocks on your Windows 10 device. In addition to the familiar features of the web editor, the app lets you program your micro:bit over USB (without needing to drag-and-drop the file onto the micro:bit drive) and directly read serial data from your micro:bit for data logging and other fun experiments!

這個App主要的功能是讓使用者在Window 10裝置上,運用Javascript圖形化介面積木,撰寫micro:bit程式。在讀者們一般比較熟悉的MakeCode網頁編輯器的功能外,這個app讓使用者透過USB,而不需拖放檔案至micro:bit硬碟,並針對資料登錄和其它有趣的實驗,直接從您的micro:bit讀取序列資料。

 

使用Window 10的讀者們想嘗試看看嗎?趕快去下載吧!

 

備註:如果想要購買micro:bit或相關套件,請洽機器人王國商城,謝謝。

 

相關文章

[ 翻譯 ] 2018.11.07- Raspberry Pi飛高高!!動手自造piDrone樹莓派無人機

翻譯

宗諭

原作者

Andy Baker

圖片

Andy Baker

主題圖片:Designed by Photoroyalty

說明

感謝作者授權翻譯,如果想更多瞭解作者,以及它自造的piDrones,請點擊這裡

 

這份說明文件的目標,主要是為了分享一些其它專案可能會感興趣,或覺得有用處的細節。我的目標其實是為了測試自己、樹莓派及python的能力。我選擇自造一台piDrone,不是作為一台飛行的機器,而是作為一項智力的挑戰,需要結合硬體、軟體及電子設備。

 

我自造的piDrone花費我超過兩萬英鎊,包括超過六年的研究、開發及測試。即便按照下面的指示,打造一台自造的無人機,也會花費超過一萬五千英鎊。如果您想要一台飛行的機器,只要買一台DJI出品的Mavic或Spark,就可前往外頭的空曠處讓它們飛行。然而,如果您想知道無人機如何運作,就請繼續讀下去⋯⋯。

 

樹莓派

每一台piDrone所支援的功能,主要根據CPU的效能及所搭載的感測器。

 

Penelope搭載的是樹莓派3B+,有4顆1400MHz的CPU,它的作業系統是Debian Stretch,支援由人類遠端控制、檔案控制的自主飛行及GPS控制飛行。她(意指Penelope)擁有一個我設計的客製化蓋子,這個蓋子是由英國公司PROJECT PLASTICS製造。

圖1 Penelope的美姿

 

Hermione搭載樹莓派3B,有4顆1200MHz的CPU,作業系統是Debian Jessie,支援人類遠端控制、檔案控制的自主飛行及具備避障能力的GPS控制飛行。她(意指Hermione)機身上方的蓋子(請見下圖),是一個倒過來的塑膠沙拉碗,經過我的裁切以符合大小。

圖2 Hermione的儀態

 

Zoe搭載樹莓派Zero W,只有單顆CPU,作業系統是Debian Stretch,支援人類遠端控制及檔案控制飛行。她(意指Zoe)有一個自己手做的蓋子,這個蓋子包含兩個100毫米的圓頂及一根管子,而這根管子是向英國公司PROJECT PLASTICS購買,然後由我連接、裁切及上漆。

圖3 Zoe的曼妙飛行

 

讀者們應該有注意到這三台piDrone的命名規則,第一都是女性的名字,與船和飛機的命名一樣;第二是字尾都是一個英文「-ee」的音。至於為什麼字尾都要有一個這樣的音,其實也沒有為什麼,總之就是浮現在我的腦海中。

 

Ivy則是piDrone的遙控器,搭載樹莓派B3+。而它的外殼是標準的Ninja Pibow外殼,購買自Pimoroni,並額外加了一些客製化的膠層,使外殼更厚實,得以安裝搖桿。

圖4 Ivy厚實的外觀

 

接下來要介紹的是piPad,用來遠端登入三台piDrone及遙控器,控制它們是否順利執行飛行任務。而piPad就是運用標準的樹莓派外殼搭配螢幕。

圖5

 

本文先介紹至此,接下來將繼續介紹piDrone的硬體和程式,敬請期待。

 

備註:如果讀者想要購買樹莓派或相關套件,歡迎洽詢機器人王國商城。

 

相關文章

[ 影片 ] 2018.11.01- CAVEDU觀點:如何看AI與科技教育(完整版)

拍攝

宗諭

剪輯、後製

怡婷

資料提供

豐智

製作協助

皇甫、鈺莨

主講人

阿吉老師曾吉弘

 

 

 

在這一集的「CAVEDU觀點」中,我們探討的主題是:AI與科技教育

總共有以下幾個重點:

 

  1. CAVEDU如何看AI人工智慧教學?(約開始於0:22)

  2. 科技教學方式一直改變,該怎麼辦?(約開始於2:35)

  3. CAVEDU如何設計課程?(約開始於4:53)

  4. CAVEDU如何在課程中導入AI人工智慧?(約開始於5:50)

  5. CAVEDU如何把AI人工智慧落實在大學、高中課堂上(約開始於6:30)

  6. 使用AI人工智慧進行視覺辨識,和使用OpenCV有何不同?(約開始於7:14)

  7. 設計樹莓派AI無人車的核心理念?(約開始於8:43)

  8. 什麼是邊緣運算?(約開始於9:32)

  9. 為何邊緣運算結合AI相關應用適合教學場域?(約開始於10:32)

  10. Intel Movidius神經運算棒介紹(約開始於10:51)

  11. 人工智慧實務工作坊(AGV)介紹(約開始於12:55)

 

重點相當多,讀者們可以根據自己想觀看的內容,選擇段落:

 

也歡迎大家訂閱我們的YouTube頻道,接收來自教育現場的AI與科技教育的訊息,謝謝。

 

相關文章

[ 影片 ] 2018.10.26- 阿吉老師線上講堂:CAVEDU教育團隊如何看AI與科技教育(上)

拍攝

宗諭

剪輯、後製

怡婷

資料提供

豐智

製作協助

皇甫、鈺莨

 

AI人工智慧的領域涵蓋廣泛,科技和教育的關鍵字每年都不斷更新、改變,究竟我們要怎樣學習,還有如何教育我們的學生、孩子,才能跟得上時代趨勢???歡迎夥伴們一起來看阿吉老師的影片分享:長期深耕科技教育的CAVEDU教育團隊,如何看AI與科技教育?

歡迎轉載、分享,謝謝。

 

相關文章

[ 介紹文 ] 2018.10.22- 7大關鍵特點,帶您認識CAVEDU的人工智慧課程與教具RKCar

文字整理

宗諭

照片

CAVEDU教育團隊

資料提供

豐智

審閱

CAVEDU教育團隊

 

AI時代已然來臨,各行各業的專業人士皆不斷思考如何將人工智慧應用至該領域。而身為教育工作者的您,也許正籌劃構思如何將AI引入教育現場,讓學生能更輕鬆、容易地學習人工智慧。

 

近兩年來,積極投入、規劃、執行AI教育的我們,目前提供給您最佳的解決方案是它:

 

樹莓派神經網路自走車套件(RKCar)

圖1

 

或許您想問:「這台車和一般的自走車有何不同?」好問題!如果只看外觀和硬體規格,還真沒什麼了不起的不一樣。然而,最大的不一樣是:

 

我們提供配套的教學方案,

保證能執行而且一定玩真的!

 

怎麼說?以下七大關鍵特點是我們AI課程教材的保證:

1.課程內容保證務實,不須擔心課程後續服務。

 

2.實戰課程記錄豐富,合作開課單位包括:微軟技術中心、INTEL、淡江大學、金門大學、新興科技教師增能工作坊⋯⋯等等,且課程邀約持續增加中。

 

3.直譯式Python,程式碼一定看得懂。

 

4.覺得AI很難嗎?我們帶您直接使用免費雲端AI玩應用。

 

5.透析AI大腦,帶您一探神經網路模型。

 

6.有效增加AI資料集的辨識力。

 

7.邊緣運算即刻辨識,不須網路也能完成課程。

 

以下是我們最新出爐、熱騰騰的課表,請參考:

人工智慧主題課程

教學目標:

  • 學習基礎Linux系統

  • 學習單板電腦硬體控制

  • 學習基礎模式識別、影像辨識

  • 結合雲端AI快速設計應用

  • 瞭解、實作AI神經網路運算

  • 瞭解、實作智慧邊緣、邊緣運算

教學內容

課程主題

學習內容

分配時數

備註

(一)樹莓派基礎學習

1.

基礎LINUX指令

2.

基礎Python應用

3.

基礎網路與遠端控制

12

使用Raspberry Pi

(二)硬體控制與影像處理

1.

樹莓派腳位控制

2.

Opencv基礎影像與人臉識別

3.

輪型機器人、機械手臂控制

12

使用Camera、RKCar、機械手臂

(三)雲端AI辨識

1.

情緒識別

2.

天氣預報

3.

語音助理

4.

聊天回話

5.

結合社群軟體應用

18

使用網際網路、Camera、麥克風、喇叭

(四)神經網路運算1

1.

不規則符號辨識

2.

資料集收集與分類

3.

資料預先處理與標記

12

使用攝影機、麥克風

(五)神經網路運算2

1.

訓練與輸出AI模型

2.

評估AI模型與應用

3.

提升AI的辨識能力

12

使用攝影機、麥克風

(六)物聯網邊緣運算

1.

如何使用雲端進行深度學習運算

2.

如何使用終端進行神經網路推理

3.

交通號誌、年齡、街道、生物、等範例應用

4.

如何加速神經網路推理

5.

如何設計人工智慧系統

12

神經運算棒

教學方法:

  • 以實作課程為主、知識授課為輔,配合當代科技應用發展,使課程盡可能以主題實作,與生活結合、廠商常使用的工具,以簡單易學為入門,了解當代科技應用的實作流程,帶給學生實體感,課後可深入學習相關技術

教學資源:

(一)教師研習營、業師教學、主題教學。

(二)相關書籍、講義、線上實作教學文章。

 

文章至此,如果您想更深入了解我們的「人工智慧」主題課程,或是洽詢上課時間,歡迎E-mail:service@cavedu.com

 

接下來,我們將透過一張圖片,向您詳細介紹RKCar的幾項特點:

圖2

 

結語

AI時代,需要有符合時代潮流的教具!RKCar套件化的構成,搭配經過多次實戰驗證的人工智慧主題課程,相信能帶給學生、學員,循序漸進且切入AI學習關鍵點的上課題驗!如果想直接入手RKCar,請洽機器人王國商城,謝謝。

 

相關文章

[ 活動記錄 ] 2018.10.18- Maker Faire Taipei 2018 RS DesignSpark展品精心製作 Check it out!

文字

RS DesignSpark

圖片

RS DesignSpark

展出時間

2018/11/3(六) – 11/4(日)

 

再過半個多月,Maker Faire Taipei 2018即將盛大登場!屆時,將有許多參展廠商與創客夥伴們齊聚一堂,展出自己的精心之作。而RS DesignSpark也會參與今年的Maker Faire Taipei,並在活動中展出Arduino、Raspberry Pi、Intel Movidius⋯⋯等等應用,分別有盤旋小魚、小型的Pidentifier、Pi-Top物件識別器、Arduino空氣吉他及簡報訓練器。為讓讀者們嚐嚐鮮、過過癮、吃吃味(咦),小編先介紹其中一個作品,Check it out

via GIPHY

簡易款Pi-Top物件識別器

這款應用運用樹莓派和Intel Movidius NCS,並配合Pi-Top CEED Pro及網絡攝影機,將影像與識別結果,顯示於Pi-top螢幕的20級識別小工具。

主要構成硬體:

  1. Raspberry Pi Model B+ (811-1284)

  2. Intel Movidius Neural Network Compute Stick (139-3655)

  3. Pi-Top CEED Pro, Green(122-6547)

圖1

 

其它的作品就請讀者們前往RS官網瀏覽,上面有很詳盡的說明。網址:https://www.rs-online.com/designspark/article-41-cn

 

這次RS DesignSpark參加Maker Faire Taipei 2018,只有作品參展嗎?當然不是囉!RS DesignSpark看準當前邊緣運算的科技趨勢,為參加者舉辦了一場「邊緣運算AI智慧裝置」體驗工作坊!

 

參加體驗工作坊可學到什麼?工作坊將運用Raspberry Pi 加上隨身碟大小的神經運算模組Intel Movidius NCS,展示低功耗又能達到高度運算負載的裝置,盼望讓使用者在AI運算高畫質圖像處理機械視覺類神經網路等應用上,觸發出新的解決方案。

 

有工作坊當然有好康囉!好康就是:凡報名體驗工作坊的夥伴,即可得到Maker Faire Taipei 2018活動票券乙張。(聽說今年的Maker Faire Taipei要購買門票喔!)所以,對邊緣運算有興趣的讀者們,請趕快報名!報名請點這裡

 

 And one more thing⋯⋯

via GIPHY

 

活動現場還將有抽獎活動,會送出Movidius、Raspberry Pi套件、Digilent Analog Discovery 2、Pmod HAT⋯⋯等等豐富獎品。所以,Maker Faire Taipei 2018,我們不見不散喔!

 

相關文章

[ 介紹文 ]CAVEDU教育團隊如何看AI 與科技教育

作者/攝影

文:曾吉弘

圖:CAVEDU教育團隊

主題圖片:Designed by Starline

文章分類介紹文
成本X
難度

X

時間X

 

CAVEDU怎麼看 AI 人工智慧

近年來全世界都掀起了一股「大家來coding」的風潮,台灣政府也開始推動基礎程式教育,目標是讓孩子們能在學習程式設計的過程中培養基礎的運算思維(Computational thinking)能力,能對這個快速變動的環境有更多的好奇心與觀察力。另一方面,自從大陸在今年(2018) 4月於上海發表全球第一本AI高中教材《人工智能基礎》之後,大家好像都緊張了起來:

  • 業界:「不 AI 一下,好像不行?得趕快說自己是 AI 產業。

  • 家長、同學:「我要找 AI 相關科系!」(當年的生科與資管也是這樣?)

  • 學校老師:「把原本的課程名稱加上AI兩個字!

 

上述也許誇大了點,但科技領域關鍵字一日數變,AI 領域又包山包海,除了極少數頂尖研究者之外,又有誰敢說自己是 AI大師、AI領航者呢?

 

AI 等資訊科技是現在進行式,今天弄得要死要活的東西,明天說不定點點按鈕就好了?近兩年物聯網教學就是很好的例證,使用 LinkIt 7697 搭配 MCS 雲服務,已經能讓國小學生也能做出簡單的物聯網專案,從網頁與手機就能監看感測器資訊或控制開發板。在此的並非說網路通訊協定不重要,而是對於非專業人士來說,這樣的設計能幫助他們聚焦在最重要的事情上:資料。如果資料對於開發者來說是有意義或是重要的,那先從資料本身開始是個相當好的出發點。

圖1

 

圖2

 

關鍵字會變,但流程與理論基礎不會。CAVEDU從2008年開始使用樂高機器人來教學(如果要回溯到我與鄭建彥最開始接觸樂高的話,那是1999年的RCX了),一路邁入手機App (Android / App Inventor@2010)、互動聯網裝置(Arduino / Rpi / LinkIt…@2013)、物聯網(@2015) 到去年開始如野火燎原一般的 AI。如果只追關鍵字的話,真的會無所適從。

 

根據美國麻省理工學院媒體實驗室終身幼兒園小組的Mitchel Resnick教授表示,幼兒(小學前)時期可說是我們一生中最具創造力的時候。該團隊所開發的 Scratch 已經是小學階段的最主要圖形化程式介面之一,Resnick教授也主張 「Scratch 是幫助孩子們成為創意思考者(Creative Thinker)的絕佳平台」,並致力於讓 Scratch 「很簡單」,他認為程式提供愈多功能或愈多元件反而會限縮孩子們的創造力。(關於創意思考者,請參考 Learning Creative Learning 課程,正體中文由阿吉老師與諸多好朋友一起翻譯完成。)

 

另一方面,MIT App Inventor小組創辦人 Hal Abelson 教授(阿吉老師於2017- 2018 於該實驗室擔任訪問學者)也說:「如果資訊科技一日數變,那為什麼還要讓孩子們和他們的祖父母一樣的方式來學習?” 因此,在這股浪潮下也有另一種反思:「是否人人都需要學如何寫程式?這樣同質化的過程會對孩子造成怎樣的影響?

 

CAVEDU的理念是:根據當前的科技發展趨勢,針對不同學習課群提供合適的教學內容。

 

對於孩子來說,好玩最重要

圖3

 

圖4

 

點我觀看與Hal Abelson教授的訪談   /   點我觀看與Mitchel Resnick教授的訪談

 

使用 Raspberry Pi 實作AI 視覺辨識無人小車

AI 對多數人來說,還是太虛無飄渺了。CAVEDU 為了讓學生理解 AI 諸多領域中最容易有感也是最容易實踐的:視覺辨識,我們使用 Raspberry Pi B3+ (後簡稱 Pi3)所設計的 「邊緣運算 AI 無人自駕小車」。

 

這是我們認為對於基礎 AI 視覺應用的最佳教學套件。之所以選用 Pi3 自然是因為其性價比以及豐富的教學資源,當年還是 Pi 2的時候就有相當不錯的 OpenCV 視覺追蹤效果,各樣的函式庫套件也非常豐富,一下子很多專題都可以使用它來完成,與Arduino 兩者號稱是學生專題救星呢(笑)!

 

AI 視覺應用的難點在於收集影像資料。喜歡養貓的阿吉老師開玩笑說:「我要幫我家的貓要拍多少張照片都沒問題,但是要蒐集十種不同的貓就難囉!」我們所設計的課程會帶學生體驗完整的訓練流程,不使用現成的資料集(因為訓練結果不會差太多),而是針對無人小車的場地實際收集影像,標記,最後選定模型來進行訓練。其中每一個環節都會影響到小車最終的辨識結果。一定有感!

圖5 學員自行收集的影像資料

 

圖6 AI視覺辨識課程實況

 

圖7 視覺辨識課程使用的AI無人小車

 

邊緣運算?

邊緣運算是指終端裝置也具有一定的能力來處理資料 ,可以加快資料的處理與傳送速度,只要把運算後的結果而非原始資料丟回雲端 (不過不一定什麼事情都要與雲端結合,後續會繼續討論)即可,自然能大幅減少因網路頻寬受限而產生的延遲。

 

例如就經濟面的考量,如果要做到抓到臉部之後能進一步辨識情緒/微笑或五官位置這類功能的話。後面的進階功能可以使用 Microsoft Azure 認知服務 或其他類似的雲端服務來做到,但這些雲端服務都需要付費(或部分免費),且多數需要信用卡來進行身份認證,這件事在多數學校就卡關了吧…   因此我們在課程設計上就朝「終端裝置就能做到」這個方向來努力。在此簡單做一些比較:

 

邊緣運算 VS 雲端服務

  1. 程式碼開源雲端服務很厲害,但它不會告訴你他是怎麼算的。我們能做的只能相信這些雲端服務供應商的結果。例如:Facebook 每天都有一大堆人在打卡與自拍,合理推斷在超大量的資料之下,Facebook在辨識臉孔上非常準,當然事實也是如此。如果把這些運算改到邊緣裝置來做的話,由於程式碼已知,就能循序漸進讓學生學到更多東西,也可以針對後續的情境來擴充。
  2. 不受網路環境影響:相信各位老師都體認到了:教室可以上網,不代表可以進行物聯網教學。能夠進行物聯網課程的話,教室的 router 要很夠力,基本要能夠負擔 「上課人數 x 3」的連線數:聯網裝置 + 手機 + 電腦 都要在同一個網段下才行。因此20人上課,連線數的基本需求就是 60。已經有許多學校著手升級網路基本設備,非常欣慰。
  3. 運算即時:以 CAVEDU 的AI教學車為例,這樣的情境就需要即時,而非連結雲端。Rpi 的速度不算太快,拍照上傳雲端,呼叫API,收到回傳結果來決定車子動作,這個過程再怎麼快也要3~5秒,這樣就算偵測到什麼東西,車子也已經撞牆了。因此有些標榜AI語音辨識結合自走車控制,好像有點奇怪⋯⋯。

 

作為邊緣運算裝置,如何提升 Raspberry Pi 的算力?

CAVEDU 的 Pi3 AI無人小車,直接讓 Rpi 執行使用 Keras 神經網路架構來進行視覺辨識,辨識張數每秒約2~5張(0.5 ~ 0.2秒/張)。這大大限制了車子的移動速度。畢竟,Pi 3只要開多一點網頁,系統就到100%了,何況大量的模型訓練呢?在不更換主板的前提下,要如何提升 Raspberry Pi 的算力呢?

 

Intel 所推出的 Movidius NCS神經運算棒來得恰到好處,可以把最耗資源的運算分一點去做。以 Pi3 小車來說,只要搭配一隻 Intel Movidius NCS 就可以讓每秒的張數提升到每秒約14~20張(0.07 ~ 0.05秒/張)。算是相當經濟實惠不錯的選擇,當然也可以期待 Pi 4就是了。根據 Intel 原廠文件表示,可以串接多隻 Movidius 達到更好的效能。

 

的確,覺得Pi 效能不佳的讀者,當然可以購買更高級的硬體例如 Nvidia TX1,但對於學校來說,經費可以買幾台呢?買一台大家圍著看嗎?另一方面,課程的延伸性呢?本課程已經與台灣微軟技術中心合作開辦多梯次的人工智慧實務工作坊(AGV),並搭配其 Azure 雲服務下的資料科學虛擬機器 (Data Science Virtual Machine) 來加速神經網路訓練速度,適合業界人士使用。另一方面,對於教學單位來說,可使用個人電腦來進行訓練,使用我們所提供的架構使用一般的電腦也可以完成訓練,並搭配 Pi3 完成至少一學期的課程(課表已經完成,歡迎來信索取或找我們去辦研習喔!E-mail:service@cavedu.com

圖8 Intel Movidius NCS神經運算棒

 

CAVEDU 提供各式各樣的最新課程,當第一線教學者的強力後盾。如果您也認同CAVEDU的理念,不喜歡好高騖遠的名詞大戰,歡迎來CAVEDU走走看看。

 

相關文章

 

 

[ 教學技術文 ] 用電腦即時與micro:bit互動!!怎麼做到?一起來看這一篇(有片請入)

作者/攝影

作者:Thomas Kluyver

文字翻譯、整理:宗諭

審閱:阿吉老師

圖片:截圖自相關網站,特此致謝!

文章分類教學技術文
說明

本文改編自作者Thomas Kluyver的開放原始碼專案,特此感謝作者!原文請見

成本
難度

材料表
  • Micro:bit*1
  • 電腦*1(安裝Linux或Windows作業系統)

 

讓我們先看一段曾正男老師拍攝的影片:

 

在影片中,曾老師試用 Jupyter notebook 上的micro:bit ubit_kernel,即時與micro:bit 互動,不需寫好程式再燒錄至micro:bit 上。

 

在說明如何實現這項功能前,小編先向讀者們簡介MicroPython和Jupyter。

 

MicroPython是Python 3的軟體實作(Software Implementation),經過最佳化以在微控制器上運作。如果讀者們想要在micro:bit上撰寫程式的話,MicroPython是一種強大的程式語言。若想進一步了解MicroPython,請參考micro:bit的官方教學文件

圖1

 

簡單來說,Jupyter是針對交互程式設計的一套工具。而這個ubit_kernel套件使Jupyter介面,可直接在micro:bit上運作MicroPython程式碼。若想進一步了解Jupyter,請參考這裡

圖2

 

簡單介紹完後,接下來,讓我們來看如何操作:

 

Step1:首先,將您的micro:bit接上電腦,我們要確定micro:bit上有安裝MicroPython。如何確認呢?我們要在micro:bit的網頁版編輯器中,產生一段Python程式腳本(Script)。然後根據網頁上的指示,將程式腳本燒錄至micro:bit。在這個步驟中,不論程式腳本執行了什麼都沒有關係。

 

Step2:依據您的作業系統,您也許需要一些額外設定,使作業系統的內核可以告訴您的micro:bit,使用一個序列埠。

 

  • 若您的電腦是Linux系統,您也許需要將您自己加入dialout群組。請執行下面這段指令:
sudo usermod -a -G dialout <your-username>

   然後登出並再次登入。

 

 

Step3:請安裝Jupyter

 

Step4:安裝ubit_kernel套件

pip install ubit_kernel
python3 -m ubit_kernel.install

 

完成上述步驟後,當您開啟Jupyter Notebook,在選單中應該會有一個micro:bit選項,以產生一個新的Notebook。趕快試試看吧!

 

備註:如果您想洽詢micro:bit相關元件,歡迎至機器人王國

 

相關文章

[ 教學技術文 ] MCS事件觸發功能進階教學——如何用更新後的 Webhook 功能連動外部服務?

作者/攝影

本文改編自聯發科技Cloud Sandbox(MCS)官方部落格上的文章,特此感謝聯發科技的授權,圖文版權均屬於聯發科技。

文章分類教學技術文

 

在之前的文章中,聯發科技的工程師介紹了在原型開發階段,事件觸發功能的最佳化,包含支援觸發條件的資料通道新增網頁警告的視覺化提示,以及如何自行定義該警告提示的嚴重性名稱而在這一篇文章,他們要教讀者們如何使用最佳化的 Webhook 功能,並以一個實例進行教學。若您尚未閱讀之前的文章,建議可看完後再回本文閱讀,以利交互搭配新功能一起使用。一起來閱讀吧!

延續之前的介紹,讀者們可看見連接MCS的工廠機台,在分別發生警告嚴重性為橘色 / 警告名稱為 Medium,以及警告嚴重性為紅色 / 警告名稱為High 兩種事件時,在測試裝置頁面的呈現,請參考下面2張圖:

圖1 顯示各別資料通道的網頁警示 | mcs.mediatek.com

 

圖2 在裝置列表頁面,僅顯示該裝置所有資料通到中警告嚴重性最高的警示燈號。 | mcs.mediatek.com

 

現在,除了網頁警告提示外,如果讀者們希望在事件發生的同時,能更進一步連動到某個遠端的實體裝置,例如智能音箱、無線燈泡⋯⋯等等,以提示在該地點的管理者,能否透過MCS實現呢?答案是可以的。

 

首先,我們必須選擇想要連動的物聯網裝置。除了挑選情境適合的裝置外,這個物聯網裝置在技術上必須滿足以下條件:

  1. 有對外開放的 API 接口

  2. API 支援 HTTP Restful 的通訊協定

 

讓我們假設情境設定如下:

工廠機台發生上述兩種事件觸發的緊急狀況時,透過 MCS 連動到管理者家中臥房的無線燈泡,而且燈泡直接顯示紅色或橘色燈光。在這個案例中,我選擇使用彩色的Wifi LED智能燈泡——美國LIFX 燈泡(也可選擇較常見的Philip Hue,只是筆者 2 年多前剛好為嘗鮮而購入)。從該公司網站上,我們可以確定產品都支援HTTP Restful的 API 接口,以利外部服務並與其整合。

圖3 截圖來源:美國LIFX 官網 https://www.lifx.com/

 

回到MCS,我們以設定橘色警告燈的Medium 觸發事件1為例。回到原型下事件觸發設定的步驟三進行編輯,在動作類型的選項,下拉新增 Webhooks。

圖4

 

如果過去曾用過Webhook這個功能,眼尖的讀者應該發現目前的Webhook 設定介面,我們新增了三個欄位:動作(Actions)標頭(Headers)內文(Body),這樣的格式也是今日普遍的HTTP Restful 請求格式。

圖5 上圖左為舊版 Webhook功能設定,上圖右為新版 Webhook功能設定。 | mcs.mediatek.com

 

讓我們到LIFX 官方的開發者頁面,找到改變燈泡行為(Set State的教學頁面(https://api.developer.lifx.com/docs/set-state),並將觸發該燈泡所需必要資訊填入MCS上的 Webhook 觸發動作頁面:

圖6

 

圖7 動作類型選取Webhook後的設定選單,填入LIFX 開發者頁面相關資訊。 | mcs.mediatek.com

 

動作:PUT

 

控制此燈泡的 HTTP 要求動作:

URL: https://api.lifx.com/v1/lights/:selector/state

其中selector為變數,可為all、label:[value]、id:[value] 任一種識別資訊指定想要連動的燈泡。

 

標頭Authorization:Bearer XXXXXXXXXXXX Content-Type:application

其中 Authorization 的值為使用者的識別碼,需在登入 LIFX cloud Home 頁面後,創建該 personal access tokens(LIFX 教學頁面有說明如何創建)。內文格式則為json。

 

內文

{
“power”: “on”,
“color”: “orange”
}

 

LIFX 的官方文件中有針對燈光的細節,例如亮度、燈光持續時間、模式等提供更完整說明,且對應的物件都可以放入內文。此情境中僅放入 power 及 color 兩個物件。接著,按下寄發 Webhook 按鈕,測試打到 LIFX服務的 Webhook 是否成功觸發燈泡開啟橘色燈光。讀者們可看見下圖中燈泡成功開啟橘光,按下儲存便完成這個事件觸發設定的更新。

圖8 按下測試按鈕,確認該燈泡有正確開啟橘色燈光。 | mcs.mediatek.com

 

依此類推,讓我們複製同樣設定在高警告嚴重性的 High事件——即當機台運轉狀態轉為弱時,同時觸發家中臥房的 LIFX 燈泡,開啟紅色燈光。在此設定中,除了內文的 「color」修改為「red」外,其餘資訊皆和事件1相同。

圖9 事件2的觸發事件設定內容 | mcs.mediatek.com

 

完成後,可看到在觸發條件和動作列表中,兩個告警事件後方的觸發動作下,已新增 Webhooks。至此,我們完成了工廠機台發生狀況時,透過 MCS 遠端連動家中臥室燈光的設定。

圖10

 

透過MCS事件觸發中的簡單設定,我們可輕鬆遠端連動除了智能燈泡外不同的物聯網裝置。除本文中的 LIFX燈泡或其它物聯網的硬體裝置外,當然也可透過 Webhook 的功能,在事件發生時連動到其他支援HTTP Restful 的軟體服務,如IFTTT、Slack 或 Line⋯⋯等等,讀者們可針對您所需的應用,選擇適當軟硬體產品,並參照該服務網站上的相關說明。

 

最後特別說明一下,這個案例是透過 MCS 本身的 Webhook功能控制 / 連動遠端軟硬體服務;相反地,若要透過第三方的軟體服務和MCS互動,則需透過申請appId及appSecret的方式,並透過該服務的webhook來和MCS互動。有興趣的讀者,可以複習此篇教學。

 

現在,馬上開始建立您的事件觸發情境吧!

 

相關文章

[ 介紹文 ] 2018.10.04- 我挖!我挖!!我挖挖挖!!!Tamiya怪手大改造 從線控成為BLE遠端控制

作者

SmallpTsai

圖片

pixabaySmallpTsai

撰稿

宗諭

審閱

鈺莨

說明

感謝專案作者SmallpTsai開放授權,讓CAVEDU教育團隊能撰寫本文,特此致謝!若想更進一步了解專案詳細檔案、資料,請點這裡

 

這次的挑戰,是改裝Tamiya 70170線控怪手,安裝上LinkIt 7697開發板,使手機能透過低功耗藍牙(BLE),遠端控制。看看作者SmallpTsai如何製做。

圖1 SmallpTsai專案的目標

 

第一步:Tamiya 70170怪手組裝

主要按照產品的使用者說明書,一步步組裝。但記得略過步驟1至4,因為這個專案不需線控。至於該如何確認怪手組裝成功呢?必須透過手動接電池測試,確認怪手內的三顆馬達都能正常運作。

 

第二步:電腦端環境設定

如果您過去沒有使用過Arduino IDE,請Google搜尋「Arduino IDE」,接著下載並安裝。近一步Google搜尋「7697設定Arduino IDE」,並根據聯發科技的教學文件設定。而在聯發科技的教學文件中,提供了一個範例程式,請依照教學文件一步步操作,便可將範例程式燒錄至LinkIt 7697。但我們可以在程式中的LRemote.setName(),把括號內的名稱改成自己喜愛的名字。

 

第三步:手機端環境設定

請至App Store(iOS)或Play商店(Android),下載「LinkIt Remote」並安裝。開啟LinkIt Remote後,請按右上角的「refresh」按鈕,讀者們應該會看到自己的裝置名稱,請選擇它。如果一切運作順利,讀者們應會看見下圖:

圖2 LinkIt Remote初始時的使用者介面

 

經過電腦端和手機端的環境設定後,我們需確定能以手機遙控LinkIt 7697上的LED燈。測試方法就是點擊USR LED這個切換按鈕,應該會看見 LinkIt 7697 開發板上內建的USR LED亮起來。

 

第四步:接電路

這個專案運用2個L293D馬達控制板,控制3顆馬達。而控制3顆馬達需用到6個腳位,運用到的腳位,請見下表:

馬達A腳位B腳位
Left1716
Right1514
ARM1312

表一

接線圖:

圖3

 

電路接好後,應能以手機控制馬達正轉或反轉。若讀者在接電路部分想更多了解,請至作者的GitHub頁面上交流,謝謝。

 

接下來,就是把程式碼燒錄至Linkit 7697開發板,然後就可用手機遠端控制怪手了。以下是不同學員的作品,給大家參考。雖然Tamiya 70170怪手的外型和結構基本上是固定的,仍可發揮一些巧思,使作品更有創意。

圖4 學員Hanny的怪手

 

圖5 Hanny設計的控制介面

Hanny的控制介面的原始碼

 

圖6 學員Jenny的作品

 

圖7 Jenny設計的控制介面

Jenny的控制介面的原始碼

 

備註:若想購買LinkIt 7697,歡迎洽詢機器人王國商城。

 

相關文章