Category Archives: 物聯網

[ 活動記錄 ] 2018.10.18- Maker Faire Taipei 2018 RS DesignSpark展品精心製作 Check it out!

文字

RS DesignSpark

圖片

RS DesignSpark

展出時間

2018/11/3(六) – 11/4(日)

 

再過半個多月,Maker Faire Taipei 2018即將盛大登場!屆時,將有許多參展廠商與創客夥伴們齊聚一堂,展出自己的精心之作。而RS DesignSpark也會參與今年的Maker Faire Taipei,並在活動中展出Arduino、Raspberry Pi、Intel Movidius⋯⋯等等應用,分別有盤旋小魚、小型的Pidentifier、Pi-Top物件識別器、Arduino空氣吉他及簡報訓練器。為讓讀者們嚐嚐鮮、過過癮、吃吃味(咦),小編先介紹其中一個作品,Check it out

via GIPHY

簡易款Pi-Top物件識別器

這款應用運用樹莓派和Intel Movidius NCS,並配合Pi-Top CEED Pro及網絡攝影機,將影像與識別結果,顯示於Pi-top螢幕的20級識別小工具。

主要構成硬體:

  1. Raspberry Pi Model B+ (811-1284)

  2. Intel Movidius Neural Network Compute Stick (139-3655)

  3. Pi-Top CEED Pro, Green(122-6547)

圖1

 

其它的作品就請讀者們前往RS官網瀏覽,上面有很詳盡的說明。網址:https://www.rs-online.com/designspark/article-41-cn

 

這次RS DesignSpark參加Maker Faire Taipei 2018,只有作品參展嗎?當然不是囉!RS DesignSpark看準當前邊緣運算的科技趨勢,為參加者舉辦了一場「邊緣運算AI智慧裝置」體驗工作坊!

 

參加體驗工作坊可學到什麼?工作坊將運用Raspberry Pi 加上隨身碟大小的神經運算模組Intel Movidius NCS,展示低功耗又能達到高度運算負載的裝置,盼望讓使用者在AI運算高畫質圖像處理機械視覺類神經網路等應用上,觸發出新的解決方案。

 

有工作坊當然有好康囉!好康就是:凡報名體驗工作坊的夥伴,即可得到Maker Faire Taipei 2018活動票券乙張。(聽說今年的Maker Faire Taipei要購買門票喔!)所以,對邊緣運算有興趣的讀者們,請趕快報名!報名請點這裡

 

 And one more thing⋯⋯

via GIPHY

 

活動現場還將有抽獎活動,會送出Movidius、Raspberry Pi套件、Digilent Analog Discovery 2、Pmod HAT⋯⋯等等豐富獎品。所以,Maker Faire Taipei 2018,我們不見不散喔!

 

相關文章

[ 介紹文 ]CAVEDU教育團隊如何看AI 與科技教育

作者/攝影

文:曾吉弘

圖:CAVEDU教育團隊

主題圖片:Designed by Starline

文章分類介紹文
成本X
難度

X

時間X

 

CAVEDU怎麼看 AI 人工智慧

近年來全世界都掀起了一股「大家來coding」的風潮,台灣政府也開始推動基礎程式教育,目標是讓孩子們能在學習程式設計的過程中培養基礎的運算思維(Computational thinking)能力,能對這個快速變動的環境有更多的好奇心與觀察力。另一方面,自從大陸在今年(2018) 4月於上海發表全球第一本AI高中教材《人工智能基礎》之後,大家好像都緊張了起來:

  • 業界:「不 AI 一下,好像不行?得趕快說自己是 AI 產業。

  • 家長、同學:「我要找 AI 相關科系!」(當年的生科與資管也是這樣?)

  • 學校老師:「把原本的課程名稱加上AI兩個字!

 

上述也許誇大了點,但科技領域關鍵字一日數變,AI 領域又包山包海,除了極少數頂尖研究者之外,又有誰敢說自己是 AI大師、AI領航者呢?

 

AI 等資訊科技是現在進行式,今天弄得要死要活的東西,明天說不定點點按鈕就好了?近兩年物聯網教學就是很好的例證,使用 LinkIt 7697 搭配 MCS 雲服務,已經能讓國小學生也能做出簡單的物聯網專案,從網頁與手機就能監看感測器資訊或控制開發板。在此的並非說網路通訊協定不重要,而是對於非專業人士來說,這樣的設計能幫助他們聚焦在最重要的事情上:資料。如果資料對於開發者來說是有意義或是重要的,那先從資料本身開始是個相當好的出發點。

圖1

 

圖2

 

關鍵字會變,但流程與理論基礎不會。CAVEDU從2008年開始使用樂高機器人來教學(如果要回溯到我與鄭建彥最開始接觸樂高的話,那是1999年的RCX了),一路邁入手機App (Android / App Inventor@2010)、互動聯網裝置(Arduino / Rpi / LinkIt…@2013)、物聯網(@2015) 到去年開始如野火燎原一般的 AI。如果只追關鍵字的話,真的會無所適從。

 

根據美國麻省理工學院媒體實驗室終身幼兒園小組的Mitchel Resnick教授表示,幼兒(小學前)時期可說是我們一生中最具創造力的時候。該團隊所開發的 Scratch 已經是小學階段的最主要圖形化程式介面之一,Resnick教授也主張 「Scratch 是幫助孩子們成為創意思考者(Creative Thinker)的絕佳平台」,並致力於讓 Scratch 「很簡單」,他認為程式提供愈多功能或愈多元件反而會限縮孩子們的創造力。(關於創意思考者,請參考 Learning Creative Learning 課程,正體中文由阿吉老師與諸多好朋友一起翻譯完成。)

 

另一方面,MIT App Inventor小組創辦人 Hal Abelson 教授(阿吉老師於2017- 2018 於該實驗室擔任訪問學者)也說:「如果資訊科技一日數變,那為什麼還要讓孩子們和他們的祖父母一樣的方式來學習?” 因此,在這股浪潮下也有另一種反思:「是否人人都需要學如何寫程式?這樣同質化的過程會對孩子造成怎樣的影響?

 

CAVEDU的理念是:根據當前的科技發展趨勢,針對不同學習課群提供合適的教學內容。

 

對於孩子來說,好玩最重要

圖3

 

圖4

 

點我觀看與Hal Abelson教授的訪談   /   點我觀看與Mitchel Resnick教授的訪談

 

使用 Raspberry Pi 實作AI 視覺辨識無人小車

AI 對多數人來說,還是太虛無飄渺了。CAVEDU 為了讓學生理解 AI 諸多領域中最容易有感也是最容易實踐的:視覺辨識,我們使用 Raspberry Pi B3+ (後簡稱 Pi3)所設計的 「邊緣運算 AI 無人自駕小車」。

 

這是我們認為對於基礎 AI 視覺應用的最佳教學套件。之所以選用 Pi3 自然是因為其性價比以及豐富的教學資源,當年還是 Pi 2的時候就有相當不錯的 OpenCV 視覺追蹤效果,各樣的函式庫套件也非常豐富,一下子很多專題都可以使用它來完成,與Arduino 兩者號稱是學生專題救星呢(笑)!

 

AI 視覺應用的難點在於收集影像資料。喜歡養貓的阿吉老師開玩笑說:「我要幫我家的貓要拍多少張照片都沒問題,但是要蒐集十種不同的貓就難囉!」我們所設計的課程會帶學生體驗完整的訓練流程,不使用現成的資料集(因為訓練結果不會差太多),而是針對無人小車的場地實際收集影像,標記,最後選定模型來進行訓練。其中每一個環節都會影響到小車最終的辨識結果。一定有感!

圖5 學員自行收集的影像資料

 

圖6 AI視覺辨識課程實況

 

圖7 視覺辨識課程使用的AI無人小車

 

邊緣運算?

邊緣運算是指終端裝置也具有一定的能力來處理資料 ,可以加快資料的處理與傳送速度,只要把運算後的結果而非原始資料丟回雲端 (不過不一定什麼事情都要與雲端結合,後續會繼續討論)即可,自然能大幅減少因網路頻寬受限而產生的延遲。

 

例如就經濟面的考量,如果要做到抓到臉部之後能進一步辨識情緒/微笑或五官位置這類功能的話。後面的進階功能可以使用 Microsoft Azure 認知服務 或其他類似的雲端服務來做到,但這些雲端服務都需要付費(或部分免費),且多數需要信用卡來進行身份認證,這件事在多數學校就卡關了吧…   因此我們在課程設計上就朝「終端裝置就能做到」這個方向來努力。在此簡單做一些比較:

 

邊緣運算 VS 雲端服務

  1. 程式碼開源雲端服務很厲害,但它不會告訴你他是怎麼算的。我們能做的只能相信這些雲端服務供應商的結果。例如:Facebook 每天都有一大堆人在打卡與自拍,合理推斷在超大量的資料之下,Facebook在辨識臉孔上非常準,當然事實也是如此。如果把這些運算改到邊緣裝置來做的話,由於程式碼已知,就能循序漸進讓學生學到更多東西,也可以針對後續的情境來擴充。
  2. 不受網路環境影響:相信各位老師都體認到了:教室可以上網,不代表可以進行物聯網教學。能夠進行物聯網課程的話,教室的 router 要很夠力,基本要能夠負擔 「上課人數 x 3」的連線數:聯網裝置 + 手機 + 電腦 都要在同一個網段下才行。因此20人上課,連線數的基本需求就是 60。已經有許多學校著手升級網路基本設備,非常欣慰。
  3. 運算即時:以 CAVEDU 的AI教學車為例,這樣的情境就需要即時,而非連結雲端。Rpi 的速度不算太快,拍照上傳雲端,呼叫API,收到回傳結果來決定車子動作,這個過程再怎麼快也要3~5秒,這樣就算偵測到什麼東西,車子也已經撞牆了。因此有些標榜AI語音辨識結合自走車控制,好像有點奇怪⋯⋯。

 

作為邊緣運算裝置,如何提升 Raspberry Pi 的算力?

CAVEDU 的 Pi3 AI無人小車,直接讓 Rpi 執行使用 Keras 神經網路架構來進行視覺辨識,辨識張數每秒約2~5張(0.5 ~ 0.2秒/張)。這大大限制了車子的移動速度。畢竟,Pi 3只要開多一點網頁,系統就到100%了,何況大量的模型訓練呢?在不更換主板的前提下,要如何提升 Raspberry Pi 的算力呢?

 

Intel 所推出的 Movidius NCS神經運算棒來得恰到好處,可以把最耗資源的運算分一點去做。以 Pi3 小車來說,只要搭配一隻 Intel Movidius NCS 就可以讓每秒的張數提升到每秒約14~20張(0.07 ~ 0.05秒/張)。算是相當經濟實惠不錯的選擇,當然也可以期待 Pi 4就是了。根據 Intel 原廠文件表示,可以串接多隻 Movidius 達到更好的效能。

 

的確,覺得Pi 效能不佳的讀者,當然可以購買更高級的硬體例如 Nvidia TX1,但對於學校來說,經費可以買幾台呢?買一台大家圍著看嗎?另一方面,課程的延伸性呢?本課程已經與台灣微軟技術中心合作開辦多梯次的人工智慧實務工作坊(AGV),並搭配其 Azure 雲服務下的資料科學虛擬機器 (Data Science Virtual Machine) 來加速神經網路訓練速度,適合業界人士使用。另一方面,對於教學單位來說,可使用個人電腦來進行訓練,使用我們所提供的架構使用一般的電腦也可以完成訓練,並搭配 Pi3 完成至少一學期的課程(課表已經完成,歡迎來信索取或找我們去辦研習喔!E-mail:service@cavedu.com

圖8 Intel Movidius NCS神經運算棒

 

CAVEDU 提供各式各樣的最新課程,當第一線教學者的強力後盾。如果您也認同CAVEDU的理念,不喜歡好高騖遠的名詞大戰,歡迎來CAVEDU走走看看。

 

相關文章

 

 

[ 教學技術文 ] 用電腦即時與micro:bit互動!!怎麼做到?一起來看這一篇(有片請入)

作者/攝影

作者:Thomas Kluyver

文字翻譯、整理:宗諭

審閱:阿吉老師

圖片:截圖自相關網站,特此致謝!

文章分類教學技術文
說明

本文改編自作者Thomas Kluyver的開放原始碼專案,特此感謝作者!原文請見

成本
難度

材料表
  • Micro:bit*1
  • 電腦*1(安裝Linux或Windows作業系統)

 

讓我們先看一段曾正男老師拍攝的影片:

 

在影片中,曾老師試用 Jupyter notebook 上的micro:bit ubit_kernel,即時與micro:bit 互動,不需寫好程式再燒錄至micro:bit 上。

 

在說明如何實現這項功能前,小編先向讀者們簡介MicroPython和Jupyter。

 

MicroPython是Python 3的軟體實作(Software Implementation),經過最佳化以在微控制器上運作。如果讀者們想要在micro:bit上撰寫程式的話,MicroPython是一種強大的程式語言。若想進一步了解MicroPython,請參考micro:bit的官方教學文件

圖1

 

簡單來說,Jupyter是針對交互程式設計的一套工具。而這個ubit_kernel套件使Jupyter介面,可直接在micro:bit上運作MicroPython程式碼。若想進一步了解Jupyter,請參考這裡

圖2

 

簡單介紹完後,接下來,讓我們來看如何操作:

 

Step1:首先,將您的micro:bit接上電腦,我們要確定micro:bit上有安裝MicroPython。如何確認呢?我們要在micro:bit的網頁版編輯器中,產生一段Python程式腳本(Script)。然後根據網頁上的指示,將程式腳本燒錄至micro:bit。在這個步驟中,不論程式腳本執行了什麼都沒有關係。

 

Step2:依據您的作業系統,您也許需要一些額外設定,使作業系統的內核可以告訴您的micro:bit,使用一個序列埠。

 

  • 若您的電腦是Linux系統,您也許需要將您自己加入dialout群組。請執行下面這段指令:
sudo usermod -a -G dialout <your-username>

   然後登出並再次登入。

 

 

Step3:請安裝Jupyter

 

Step4:安裝ubit_kernel套件

pip install ubit_kernel
python3 -m ubit_kernel.install

 

完成上述步驟後,當您開啟Jupyter Notebook,在選單中應該會有一個micro:bit選項,以產生一個新的Notebook。趕快試試看吧!

 

備註:如果您想洽詢micro:bit相關元件,歡迎至機器人王國

 

相關文章

[ 教學技術文 ] MCS事件觸發功能進階教學——如何用更新後的 Webhook 功能連動外部服務?

作者/攝影

本文改編自聯發科技Cloud Sandbox(MCS)官方部落格上的文章,特此感謝聯發科技的授權,圖文版權均屬於聯發科技。

文章分類教學技術文

 

在之前的文章中,聯發科技的工程師介紹了在原型開發階段,事件觸發功能的最佳化,包含支援觸發條件的資料通道新增網頁警告的視覺化提示,以及如何自行定義該警告提示的嚴重性名稱而在這一篇文章,他們要教讀者們如何使用最佳化的 Webhook 功能,並以一個實例進行教學。若您尚未閱讀之前的文章,建議可看完後再回本文閱讀,以利交互搭配新功能一起使用。一起來閱讀吧!

延續之前的介紹,讀者們可看見連接MCS的工廠機台,在分別發生警告嚴重性為橘色 / 警告名稱為 Medium,以及警告嚴重性為紅色 / 警告名稱為High 兩種事件時,在測試裝置頁面的呈現,請參考下面2張圖:

圖1 顯示各別資料通道的網頁警示 | mcs.mediatek.com

 

圖2 在裝置列表頁面,僅顯示該裝置所有資料通到中警告嚴重性最高的警示燈號。 | mcs.mediatek.com

 

現在,除了網頁警告提示外,如果讀者們希望在事件發生的同時,能更進一步連動到某個遠端的實體裝置,例如智能音箱、無線燈泡⋯⋯等等,以提示在該地點的管理者,能否透過MCS實現呢?答案是可以的。

 

首先,我們必須選擇想要連動的物聯網裝置。除了挑選情境適合的裝置外,這個物聯網裝置在技術上必須滿足以下條件:

  1. 有對外開放的 API 接口

  2. API 支援 HTTP Restful 的通訊協定

 

讓我們假設情境設定如下:

工廠機台發生上述兩種事件觸發的緊急狀況時,透過 MCS 連動到管理者家中臥房的無線燈泡,而且燈泡直接顯示紅色或橘色燈光。在這個案例中,我選擇使用彩色的Wifi LED智能燈泡——美國LIFX 燈泡(也可選擇較常見的Philip Hue,只是筆者 2 年多前剛好為嘗鮮而購入)。從該公司網站上,我們可以確定產品都支援HTTP Restful的 API 接口,以利外部服務並與其整合。

圖3 截圖來源:美國LIFX 官網 https://www.lifx.com/

 

回到MCS,我們以設定橘色警告燈的Medium 觸發事件1為例。回到原型下事件觸發設定的步驟三進行編輯,在動作類型的選項,下拉新增 Webhooks。

圖4

 

如果過去曾用過Webhook這個功能,眼尖的讀者應該發現目前的Webhook 設定介面,我們新增了三個欄位:動作(Actions)標頭(Headers)內文(Body),這樣的格式也是今日普遍的HTTP Restful 請求格式。

圖5 上圖左為舊版 Webhook功能設定,上圖右為新版 Webhook功能設定。 | mcs.mediatek.com

 

讓我們到LIFX 官方的開發者頁面,找到改變燈泡行為(Set State的教學頁面(https://api.developer.lifx.com/docs/set-state),並將觸發該燈泡所需必要資訊填入MCS上的 Webhook 觸發動作頁面:

圖6

 

圖7 動作類型選取Webhook後的設定選單,填入LIFX 開發者頁面相關資訊。 | mcs.mediatek.com

 

動作:PUT

 

控制此燈泡的 HTTP 要求動作:

URL: https://api.lifx.com/v1/lights/:selector/state

其中selector為變數,可為all、label:[value]、id:[value] 任一種識別資訊指定想要連動的燈泡。

 

標頭Authorization:Bearer XXXXXXXXXXXX Content-Type:application

其中 Authorization 的值為使用者的識別碼,需在登入 LIFX cloud Home 頁面後,創建該 personal access tokens(LIFX 教學頁面有說明如何創建)。內文格式則為json。

 

內文

{
“power”: “on”,
“color”: “orange”
}

 

LIFX 的官方文件中有針對燈光的細節,例如亮度、燈光持續時間、模式等提供更完整說明,且對應的物件都可以放入內文。此情境中僅放入 power 及 color 兩個物件。接著,按下寄發 Webhook 按鈕,測試打到 LIFX服務的 Webhook 是否成功觸發燈泡開啟橘色燈光。讀者們可看見下圖中燈泡成功開啟橘光,按下儲存便完成這個事件觸發設定的更新。

圖8 按下測試按鈕,確認該燈泡有正確開啟橘色燈光。 | mcs.mediatek.com

 

依此類推,讓我們複製同樣設定在高警告嚴重性的 High事件——即當機台運轉狀態轉為弱時,同時觸發家中臥房的 LIFX 燈泡,開啟紅色燈光。在此設定中,除了內文的 「color」修改為「red」外,其餘資訊皆和事件1相同。

圖9 事件2的觸發事件設定內容 | mcs.mediatek.com

 

完成後,可看到在觸發條件和動作列表中,兩個告警事件後方的觸發動作下,已新增 Webhooks。至此,我們完成了工廠機台發生狀況時,透過 MCS 遠端連動家中臥室燈光的設定。

圖10

 

透過MCS事件觸發中的簡單設定,我們可輕鬆遠端連動除了智能燈泡外不同的物聯網裝置。除本文中的 LIFX燈泡或其它物聯網的硬體裝置外,當然也可透過 Webhook 的功能,在事件發生時連動到其他支援HTTP Restful 的軟體服務,如IFTTT、Slack 或 Line⋯⋯等等,讀者們可針對您所需的應用,選擇適當軟硬體產品,並參照該服務網站上的相關說明。

 

最後特別說明一下,這個案例是透過 MCS 本身的 Webhook功能控制 / 連動遠端軟硬體服務;相反地,若要透過第三方的軟體服務和MCS互動,則需透過申請appId及appSecret的方式,並透過該服務的webhook來和MCS互動。有興趣的讀者,可以複習此篇教學。

 

現在,馬上開始建立您的事件觸發情境吧!

 

相關文章

[ 介紹文 ] 2018.10.04- 我挖!我挖!!我挖挖挖!!!Tamiya怪手大改造 從線控成為BLE遠端控制

作者

SmallpTsai

圖片

pixabaySmallpTsai

撰稿

宗諭

審閱

鈺莨

說明

感謝專案作者SmallpTsai開放授權,讓CAVEDU教育團隊能撰寫本文,特此致謝!若想更進一步了解專案詳細檔案、資料,請點這裡

 

這次的挑戰,是改裝Tamiya 70170線控怪手,安裝上LinkIt 7697開發板,使手機能透過低功耗藍牙(BLE),遠端控制。看看作者SmallpTsai如何製做。

圖1 SmallpTsai專案的目標

 

第一步:Tamiya 70170怪手組裝

主要按照產品的使用者說明書,一步步組裝。但記得略過步驟1至4,因為這個專案不需線控。至於該如何確認怪手組裝成功呢?必須透過手動接電池測試,確認怪手內的三顆馬達都能正常運作。

 

第二步:電腦端環境設定

如果您過去沒有使用過Arduino IDE,請Google搜尋「Arduino IDE」,接著下載並安裝。近一步Google搜尋「7697設定Arduino IDE」,並根據聯發科技的教學文件設定。而在聯發科技的教學文件中,提供了一個範例程式,請依照教學文件一步步操作,便可將範例程式燒錄至LinkIt 7697。但我們可以在程式中的LRemote.setName(),把括號內的名稱改成自己喜愛的名字。

 

第三步:手機端環境設定

請至App Store(iOS)或Play商店(Android),下載「LinkIt Remote」並安裝。開啟LinkIt Remote後,請按右上角的「refresh」按鈕,讀者們應該會看到自己的裝置名稱,請選擇它。如果一切運作順利,讀者們應會看見下圖:

圖2 LinkIt Remote初始時的使用者介面

 

經過電腦端和手機端的環境設定後,我們需確定能以手機遙控LinkIt 7697上的LED燈。測試方法就是點擊USR LED這個切換按鈕,應該會看見 LinkIt 7697 開發板上內建的USR LED亮起來。

 

第四步:接電路

這個專案運用2個L293D馬達控制板,控制3顆馬達。而控制3顆馬達需用到6個腳位,運用到的腳位,請見下表:

馬達A腳位B腳位
Left1716
Right1514
ARM1312

表一

接線圖:

圖3

 

電路接好後,應能以手機控制馬達正轉或反轉。若讀者在接電路部分想更多了解,請至作者的GitHub頁面上交流,謝謝。

 

接下來,就是把程式碼燒錄至Linkit 7697開發板,然後就可用手機遠端控制怪手了。以下是不同學員的作品,給大家參考。雖然Tamiya 70170怪手的外型和結構基本上是固定的,仍可發揮一些巧思,使作品更有創意。

圖4 學員Hanny的怪手

 

圖5 Hanny設計的控制介面

Hanny的控制介面的原始碼

 

圖6 學員Jenny的作品

 

圖7 Jenny設計的控制介面

Jenny的控制介面的原始碼

 

備註:若想購買LinkIt 7697,歡迎洽詢機器人王國商城。

 

相關文章

 

[ 介紹文 ] 2018.09.25- 當車子有了智慧,對我們的行車體驗有何影響?來看看Smart Car!

作者

Josh Go成功大學資訊工程系教授
黃崇明/成功大學資訊工程系博士生林士颺

圖片

pixabay

說明

轉載、改寫自「臺灣網路科教館」生活科學補給站內文章,特此致謝!原文請見

現今,車輛多半只負責運送乘客抵達目的地。然而,不久的將來,「智慧車」將提供過往未能達成的許多新功能,例如:主動式安全系統、自動駕駛系統、即時車流導航資訊系統⋯⋯等等。目前只出現在科幻電影內的許多特殊功能,即將實現於本文主角「智慧車」上。

 

什麼是智慧車?

「智慧車」不同於傳統汽車,它結合汽車、半導體、電子、資通訊及光電等科技於一身。其上整合應用多種不同感測器、雷達、無線通訊、攝影機等裝置,以達成我們需要的功能。「智慧車」的開發,通常以車輛安全、舒適便利及環保節能等三方向為主軸,可進一步探討如下:

圖1 廠商開發的智慧車

 

一、安全防護

車輛的安全性始終為車廠與駕駛關注的重要議題。以往,車廠透過許多技術提升車輛安全性,而未來的科技將更進一步於事故可能發生前,即產生安全防護。例如,在主動式防碰撞系統中,車輛利用裝配於其上裝置,提供的資訊進行運算,在事故可能發生前,即警示駕駛或產生相對應動作,例如自動減速⋯⋯等等,降低事故發生機率。

 

二、便利駕駛

未來的「智慧車」將提供更完整、豐富的功能,減輕駕駛負擔。其中一種無人駕駛的智慧車,許多科技大廠正積極研發中。無人智慧車提供語音或觸控螢幕,讓使用者輸入目的地,再依即時車流量資訊選擇最佳路線,將乘客以自動駕駛方式,安全運載至目的地。

圖2 無人智慧車提供語音或觸控螢幕(示意圖)

 

三、即時導航

以往的車輛導航系統,依全球定位系統(GPS)將車輛位置定位後,顯示於螢幕上,並依所設定目的地,找出較佳導航路線。而未來的即時導航系統,在尋找導航路線時,將同時考量車流量與擁塞⋯⋯等資訊,避免將車輛導引至塞車路段,讓駕駛可快速抵達目的地,同時降低廢氣污染,達成環保節能的目標。

 

四、車間通訊

「智慧車」能提供以往無法達成的許多功能。為達到這些功能,彼此交換車間訊息即為必須。除了行車資訊的傳遞和交換,「智慧車」更能透過車間通訊等方式,讓駕駛在車輛上連接各種不同網路。目前,車間通訊的重要發展,以結合通訊(Telecommunications)與資訊(Informatics)的車用資通訊(Telematics)技術為主。

 

五、環保要求

近年來,地球的平均溫度,因二氧化碳大量排放而日趨升高。為保護這獨一無二的地球,「智慧車」將以零汙染、零碳排的電力能源為動力系統。智慧車於日光充足時,利用太陽能電板補給電力;當日光微弱或夜晚時,可利用家用電源補足電力。此外,為便利使用者,不需電線的「無線充電系統」也將使用於智慧車上,只需將車開回車庫內(不需直接連接電源),即可自動替車子充電。

圖3 智慧車以電力能源做動力系統

 

六、延伸應用

除本身能提供的服務和功能外,「智慧車」更能擴展應用領域。例如,結合智慧型運輸系統(Intelligent Transport Systems,ITS) ,以提升先進交通管理服務、先進旅行者資訊服務、先進公共運輸服務、先進車輛控制安全服務、商車營運服務、緊急事故支援服務、電子收付費服務、資訊管理系統、弱勢使用者保護服務等九大領域。

 

小結

為更快速抵達目的地,以及有更安全、舒適的行車體驗,「智慧車」應運而生,並提供過往車輛未能具備的功能。而在不久的將來,過去只有在科幻電影中現身,車輛的種種炫麗功能,將可能一一實現在智慧車上。就讓我們拭目以待吧!

 

相關文章

[Raspberry Pi] 電腦跨網段,也可遠端連線樹莓派喔!!

本篇為[Raspberry Pi] 如何使用遠端桌面 的延續文章,使用RealVNC與各位讀者分享,如何不需在同一網段內也可進行遠端連線。

作者/攝影

CAVEDU教育團隊 許鈺莨

文章分類教學技術文
時間一小時內
成本最低1500起
難度

*

材料表
  1. 電腦或其他行動裝置
  2. Raspberry Pi(若欲購買樹莓派,請洽機器人王國商城)

1.在Raspberry Pi上安裝VNC

一開始必須在Raspberry Pi安裝VNC Connect,建議外接螢幕、鍵盤、滑鼠,或用類似像Putty、MobaXterm的軟體SSH登入Raspberry Pi,相關教學請看
[Raspberry Pi] 完全不接螢幕鍵盤滑鼠,電腦一開始就用網路線遠端連線Pi 

 

打開終端機之後,請鍵入:

	sudo apt-get update
	sudo apt-get install realvnc-vnc-server
圖1

 

圖2

 

圖3 按Y同意安裝,即可安裝完成。

 

如何開機自動執行RealVNC

a.有接螢幕、鍵盤、滑鼠

圖4 點選左上角樹莓派圖示,選「Preferences」 ->「Raspberry Pi Configuration」。

 

圖5 選「Interfaces」,再至VNC選「Enabled」。

 

圖6 重新開機即可

 

b.使用Putty或MobaXterm等軟體SSH遠端登入

在終端機輸入:

	sudo raspi-config 

 

圖7

 

會出現選項,如下圖:

圖8 選「Interfacing Options」

 

圖9 再選VNC選項

 

圖10 選擇即可設定完成

 

2.在VNC官網註冊帳號

就和登入臉書或LINE等通訊軟體的概念一樣,要先註冊一組帳號,VNC官網: https://www.realvnc.com/en/onboarding/home/ ,註冊完畢後,便可依自己的帳號登入。

圖11 建立新帳號

 

圖12 勾選「我不是機器人」選項

 

圖13 填寫個人相關資訊

 

圖14 其它行動裝置教學

 

由於RealVNC可由帳號登入,所以不管是電腦或是可上網的行動裝置,只要安裝RealVNC Viewer,皆可遠端登入,讓我們以電腦為例子。

圖15 收到驗證信件

 

圖16 註冊成功

 

如圖15,當收到驗證信件時,請按下「VERIFY EMAIL」按鈕後,會跳轉至官方頁面,顯示如上圖16,表示註冊成功。

 

3.下載RealVNC Viewer至電腦

圖17 下載RealVNC Viewer(以Windows版本為例)

 

圖18 安裝完成畫面

 

圖19 按右上角「Sign in」輸入帳號

 

圖20 登入畫面,右邊為欲登入Raspberry Pi的區域。

 

4.遠端登入Raspberry Pi

圖21 新增連線對象,選「File」->「New connection」。

 

圖22 輸入Raspberry Pi的ip 位置及名稱後,按下OK。

 

圖23 成功新增連線對象Raspberry Pi

 

圖24 輸入驗證的使用者和密碼

 

這裡預設Username為「pi」,Password為「raspberry」。

圖25 第一次連線會出現認證警告,按「Continue」即可。

 

圖26 遠端登入成功畫面

 

相關文章

[ LinkIt 7697 ] 環保的錦囊妙計:如何用LinkIt 7697搭配聯發科技MCS,製作出魚菜共生裝置

現今,由於環保意識抬頭,社會各界紛紛意識到對環境友好的農耕方法,以及永續經營的重要性。所以,魚菜共生的高用水性,以及養魚、蝦所產生廢棄物的再生利用,是非常好永續利用環境、資源的一種耕種方式。這一篇文章,就是用手把手的方式,教大家如何自己做一個魚菜共生的裝置,一起來看看!

作者/攝影

CAVEDU教育團隊 薛皓云

文章分類教學技術文
時間2小時
成本3700+元
難度***
材料表1.LinkIt 7697開發板*1

(若欲購買,請洽機器人王國商城。)

2.RK IoT EXShield擴充板*1

(若欲購買,請洽機器人王國商城。)

3.5V1A變壓器*1

4.EIC 170孔麵包板*1

5.LED點矩陣 *1

6.土壤溼度感測器*1

7.繼電器模組*1

8.臥式有刷小水泵*1

9.Gravity:Waterproof DS18B20 Sensor Kit*1

(若欲購買,請洽機器人王國商城。)

10.Gravity:類比式酸鹼值感測器模組 *1

(若欲購買,請洽機器人王國商城。)

11.發泡煉石 60兩

12.SAMLA 11/22公升收納盒專用分隔板,透明 *1

13.SAMLA 收納盒 22公升 *1

14.跳線(母對母)10p

15.跳線(公對母)10p

16.塑膠軟管 45cm

 

需要的工具:

1.電工膠帶

2.熱熔膠槍

3.螺絲起子

硬體組裝:

1.將沉水馬達線透過杜邦線延長(紅正白負)

圖1

 

2.將沉水馬達利用熱融膠,黏至SAMLA收納盒 22公升底部角落。

圖2

 

3.將沉水馬達的線,利用熱融膠沿著箱子角落固定住。

圖3

 

4.接上塑膠軟管至沉水馬達上,並放著。

圖4

 

5.將RK IoT EXShield擴充板,利用熱融膠黏至SAMLA收納盒22公升側面(寬的那一面)。

圖5

 

圖6

 

6.在RK IoT EXShield擴充板上方,黏上繼電器。

圖7

 

7.將沉水馬達的白色電線接至繼電器上NO腳位

8.從繼電器COM腳位接一條跳線,至RK IoT EXShield的GND上。

圖8

 

9.繼電器上VCC、GND、IN,分別接上RK IoT EXShield的5V、GND、D8。

10.沉水馬達的正極,接於杜邦母頭左上角數來第4腳位。

圖9

 

11.將Waterproof感測器的水下感測器的黃、紅、黑線,分別接上Waterproof感測器轉接器的A、B、C。

圖10

 

12.將Waterproof感測器轉接器黏至外箱右上角上

圖11

 

13.將Waterproof感測器轉接器,接至RK IoT EXShield擴充版的D2。

14.將Waterproof感測器,放至SAMLA收納盒 22公升中。

圖12

 

15.裁切pH計的泡棉收納盒

圖13

 

圖14

 

16.將裁切完的泡棉,黏至SAMLA收納盒 22公升側面中間(窄的那一面)。

圖15

 

17.在SAMLA收納盒 22公升側面(窄的那一面),左下角黏上pH計轉接器。

18.接上pH計並放入泡棉收納盒中

圖16

 

19.將pH計轉接器,接至RK IoT EXShield擴充版的A1。

20.土壤感測器S、+、-,分別接至RK IoT EXShield擴充版的A0、5V、GND。

圖17

 

21.將發泡煉石,裝至SAMLA 11/22公升收納盒,專用分隔板中約5cm高。

圖18

 

22.將SAMLA 11/22公升收納盒專用分隔板,放至SAMLA 收納盒 22公升上,並將塑膠軟管從SAMLA 11/22公升收納盒專用分隔板中間穿出。

圖19

 

23.將土壤感測器置入發泡煉石中

圖20

 

24.將DHT11黏至RK IoT EXShield擴充板右下角

圖21

 

25.將DHT11的VCC、DATA、GND,分別接到RK IoT EXShield擴充版的VCC、A2(P16)、GND。

這樣硬體部分就大功告成囉!!

圖22

 

接下來是程式部分:

1.申請MCS(MediaTek Cloud Sandbox,簡稱MCS,由聯發科技所推出的雲端服務)帳號。

2.新增產品原型名稱設定如圖23

圖23

 

3.新增完畢後點選詳情

圖24

 

4.新增顯示通道酸鹼值——ID:ph;資料型態:浮點數;單位:N/A。

圖25

 

5.新增顯示通道水下溫度——ID:temp_wa;資料型態:浮點數;單位:攝氏。

圖26

 

6.新增顯示通道土壤溼度——ID:Mo;資料型態:分類Key1名稱:乾;Key1值:D;Key2名稱:濕;Key2值:W。

圖27

 

7.新增顯示通道室內溫度——ID:T;資料型態:整數;單位:攝氏。

圖28

 

8.新增顯示通道室內溼度——ID:H;資料型態:整數;單位:百分比。

圖29

 

9.新增測試裝置

圖30

 

10.完成後前往詳情

圖31

 

11.記下自己的 DeviceID 及 DeviceKey

圖32

 

12.開啟程式ino

13.將第7、8行的WiFi帳號密碼,更改成為自己的WiFi帳號密碼。

圖33

 

14.第10行中的MCS DeviceID及DeviceKey改成自己的ID及Key

圖34

 

15.將程式燒入至LinkIt 7697中,並將7697裝至RK IoT EXShield擴充板上。

16.接上5V1A電源等待7697連上網

 

這樣,我們自己的魚菜共生裝置就完成了!趕快動手嘗試一下喔!

 

相關文章

[新品開箱]micro:car來囉~~可結合 Grove Zero 套件的機器小車套件

作者/攝影

CAVEDU教育團隊 曾弘吉

文章分類

教學 (介紹性)

時間

1hr

成本

難度

** (1~10)

材料表

市面上搭配 micro:bit 的擴充板和機器人套件相當多,今天要介紹的是 SeeedStudio 的 micro:car。它有很方便的磁鐵接頭(絕對不會接錯!),還可以連接 Grove Zero 套件,感覺是相當好玩的套件。先來看看盒裝吧。

圖1

 

開盒之後,看到車體與循線用的光感測器,以及用來連接 micro:bit 的 Car shield。針對循跡車,也提供了三張場地紙及紅藍色筆,方便我們自行設計場地。

圖2

 

圖3

 

大家可以比較一下這些元件與micro:bit的大小,迷你、可愛應該是這款套件的亮點之一。

圖4

 

讓我們先把車體與循線感測器裝起來

圖5

 

再裝上 Car shield 和 micro:bit,馬上就成為一台循跡車囉!請讀者們注意上傳程式需將 micro usb 線接到 micro:bit,而 car shield 上的 micro usb 頭只用來供電。

圖6

 

另外,就是可以搭配 Grove Zero 套件,包含光、溫度、聲音及IMU感測器,還有LED陣列、按鈕及蜂鳴器⋯⋯等常用元件。這與 DFROBOT 的 BOSON 套件一樣,都是免寫程式,就可以讓小朋友體會輸入與輸出關係變化的簡易電子教學套件。有很多不同的變化,非常好玩!

圖7

 

不過,因為是磁力接頭的關係,所以無法同時接太多 zero 元件上去(會垂下來),可改成上下堆疊的方式來使用,在機構設計上更方便。例如,以下四種方式,皆可以讓聲音感測器的音量變化,反應於LED陣列的點亮顆數,相當直觀的應用。

 

以下四張做成 2 x 2 table:

圖8

 

圖9

 

圖10

 

圖11

 

相關文章

[ 翻譯 ] micro:bit 攻略(一):透過電線連接micro:bit

原文作者

Cigdem Sengul 與 Anthony Kirby

圖片

Cigdem Sengul 與 Anthony Kirby

翻譯宗諭審閱吉弘
說明

感謝作者Cigdem Sengul 與 Anthony Kirby授權,原文書的連結:https://microbit.nominetresearch.uk/networking-book/,特此致謝!

材料表
  • Micro:bit*2(若您想要購買micro:bit,歡迎洽詢機器人王國。)

  • 鱷魚夾線*4

  • 電池座*1

  • 3A電池*2

本文將示範如何透過電線(搭配鱷魚夾頭)連接兩個micro:bit,進而建立起您自己的網路。為讓兩個micro:bit可以彼此傳輸訊息,它們需要連結在一起,不論是有線或無線,而我們稱此為通訊媒介。

 

在兩個micro:bit間傳輸的訊息,可以是字串(String),如「Hello」;或是數字,如「9」;或是一個小圖案。micro:bit會把要傳輸的訊息轉變成為訊號,再透過通訊媒介傳送出去。

 

例如,當我們透過家中的有線電話說:「哈囉」,電話的手持聽筒將聲音轉變為電壓訊號。然後,這個訊號透過線路被傳輸至接收端的電話,而接收端的電話再把電壓訊號轉變回聲音。

 

電腦及您手上的micro:bit,在處理訊號時一定會將它們轉換為二進位資料,也就是0和1。此外,經由電腦處理的二進位資料,必須在透過通訊媒介傳送前被轉變成為訊號。而透過不同的通訊媒介所連接的電腦或任何裝置就是網路。在這篇文章中,您將透過鱷魚夾頭電線來建立一個包含兩個micro:bit的小小網路。

 

小知識:網路

一個電腦網路包含了數台電腦或裝置,它們連結在一起可以互相通訊。在一個電腦網路中,至少包含了兩台電腦,而兩個或更多的網路足以形成更大的網路。而我們常提到的網際網路(Internet),是一個包含非常多網路的巨型網路。

 

動動手寫程式:傳遞愛心圖案

在這個段落,讀者們將透過電線連接兩個micro:bit。您將從一個micro:bit傳送一個心型圖案至另一個。接下來,您將藉由四個任務,撰寫出傳送心型圖案的micro:bit程式。

圖1 愛心圖案

 

任務一:觀看心型圖案如何傳送

請看這段影片,說明如何連接兩個micro:bit以及程式運作方式,請看:

 

任務二:將兩個micro:bit連接起來,並測試連線是否成功。

Step1:使用鱷魚夾線,連接兩個micro:bit的3V腳位。然後,用另一條線連接兩個micro:bit的GND腳位。

 

Step2:使用鱷魚夾線,(1)連接第一個micro:bit的2號 腳位,另一頭接到第二個micro:bit的1號腳位;(2)連接第二個micro:bit的2號 腳位,另一頭接到第一個micro:bit的1號腳位。請注意線一定要接對:3V接3V;GND接GND;Pin 1接 Pin 2;Pin 2接 Pin 1。

圖2 要特別注意的是,鱷魚夾線需要正確連接。

 

Step3:測試傳輸線是否接通。請用瀏覽起開啟MakeCode程式環境(https://makecode.microbit.org/),用程式指令積木拉出圖3的程式。這個程式的邏輯是,當我們按下其中一個micro:bit上面的按鈕A,檢查另一個micro:bit的LED是否亮起。您將可在「進階/引腳」程式積木指令區中找到本程式所需的指令積木。

圖3

 

任務三:測試傳送心型圖案的Hex檔案

Step1:將傳送心型圖案的程式下載至您的micro:bit。這裡有兩個不同的Hex檔案,需要下載至micro:bit 1和micro:bit 2。載點分別在:Hex1 Hex2 。請注意這兩個Hex檔案要直接裝到您手邊的的micro:bit上執行,無法再MakeCode程式環境來編輯了。

 

Step2:現在,請搖晃一下micro:bit來看看是否有顯示心型圖案。

 

任務四:撰寫傳送心型圖案的程式

在這個任務中,您要寫一個micro:bit的程式來達到類似於在任務二、三中的傳送訊息效果。在撰寫程式前,您必須思考三個問題:

  1. 在您的程式中,micro:bit會對於哪一項輸入產生反應?

  2. 兩塊micro:bit該如何傳送資料給對方?

  3. 你覺得兩塊micro:bit是真的把心型圖案傳送給對方嗎?

 

關於問題1,請讀者們看一下MakeCode程式環境中的「輸入」程式積木指令區下面的選項;關於問題2,請讀者們使用前面任務二步驟三的電報程式。

 

關於問題3,我們假設micro:bit 2知道,它將會從micro:bit 1那裡接收到一個心型圖案,讓我們撰寫micro:bit 1的程式,使它:

(1)先顯示一個心型圖案,直到它向micro:bit 2傾斜;

(2)當它向micro:bit 2傾斜時,它會從正確的腳位向micro:bit 2傳送一個脈衝;

(3)當micro:bit 1在正確的腳位上接收到這個脈衝時,它會顯示出一個心型圖案。

 

接著撰寫micro:bit 2程式,使它:

(1)當它在正確的腳位上接收到一個脈衝,micro:bit 2會顯示一個心型圖案。

(2)當它向micro:bit 1傾斜,它會從正確的腳位傳送一個脈衝給micro:bit 1。

 

這樣大家都明白程式是如何運作的了嗎?趕快動動手玩玩看吧!

 

相關文章

[ 翻譯 ] 2018.08.03-根據TensorFlow團隊,TensorFlow 1.9正式支援樹莓派

原文作者

Pete Warden

圖片

CAVEDU教育團隊

翻譯宗諭審閱吉弘
說明

感謝作者Pete Warden的授權翻譯,特此致謝!

When TensorFlow was first launched in 2015, we wanted it to be an “open source machine learning framework for everyone”. To do that, we need to run on as many of the platforms that people are using as possible. We’ve long supported Linux, MacOS, Windows, iOS, and Android, but despite the heroic efforts of many contributors, running TensorFlow on a Raspberry Pi has involved a lot of work. Thanks to a collaboration with the Raspberry Pi Foundation, we’re now happy to say that the latest 1.9 release of TensorFlow can be installed from pre-built binaries using Python’s pip package system! If you’re running Raspbian 9 (stretch), you can install it by running these two commands from a terminal:

當TensorFlow於2015年首次發佈時,我們希望它是一個「給所有人的開源機器學習框架」。爲要達成這一點,我們需要盡可能讓它在更多人們使用的平台上運作,所以,我們長期以來支援了Linux、MacOS、Windows、iOS及Android等作業系統。然而,儘管許多貢獻者已經貢獻卓越,在Raspberry Pi上運行TensorFlow仍有許多工作需要完成。感謝與Raspberry Pi基金會的合作,我們現在很高興能宣佈:最新的TensorFlow 1.9版,可透過Python的pip套件系統來安裝建置好的二元檔了!若您正使用Raspbian 9(Raspbian stretch),只要從終端機輸入下面這兩道指令來安裝它:

 

sudo apt install libatlas-base-dev
pip3 install tensorflow

 

You can then run python3 in a terminal, and use TensorFlow just as you would on any other platform. Here’s a simple hello world example:

接下來,您可在終端機上運作python3,並如同在任何其它平台上一樣使用TensorFlow。下面是一個簡單的hello world範例:

 

# Python
import tensorflow as tf
tf.enable_eager_execution()
hello = tf.constant(‘Hello, TensorFlow!’)
print(hello)

 

If the system outputs the following, then you are ready to begin writing TensorFlow programs:

Hello, TensorFlow!

如果看到以下內容:Hello, TensorFlow!, 那您便可開始編寫TensorFlow的程式。

 

There are more details on installing and troubleshooting TensorFlow on the Raspberry Pi on the TensorFlow website.

更多細節,請參考TensorFlow官網上的內容

 

We’re excited about this because the Raspberry Pi is used by many innovative developers, and is also widely used in education to introduce people to programming, so making TensorFlow easier to install will help open up machine learning to new audiences. We’ve already seen platforms like DonkeyCar use TensorFlow and the Raspberry Pi to create self-driving toy cars, and we can’t wait to discover what new projects will be built now that we’ve reduced the difficulty.

我們對這件事感到很興奮,因為Raspberry Pi早已被許多創新開發者使用著,也被廣泛應用於教育領域來推廣程式教育。所以,讓TensorFlow更容易安裝於Raspberry Pi上,將有助於新朋友認識何謂機器學習。我們已經看到像 DonkeyCar 這樣的平台使用TensorFlow與Raspberry Pi來做出能夠自動駕駛的玩具小車。我們也迫不及待想知道,在使用難度降低之後,會有哪些新專案誕生。

 

Eben Upton, founder of the Raspberry Pi project, says, “It is vital that a modern computing education covers both fundamentals and forward-looking topics. With this in mind, we’re very excited to be working with Google to bring TensorFlow machine learning to the Raspberry Pi platform. We’re looking forward to seeing what fun applications kids (of all ages) create with it,” and we agree!

Raspberry Pi創辦人Eben Upton表示:「現今的電腦程式教育必須涵蓋基礎知識與前瞻性的主題。考慮到這一點,我們非常興奮能與Google合作,將TensorFlow機器學習引入Raspberry Pi平台。我們期待看見所有年齡層的孩子們能運用它來打造各種有趣的應用。」這,我們完全同意!

 

We’re hoping to see a lot more educational material and tutorials emerge that will help more and more people explore the possibilities of machine learning on such a cost-effective and flexible device.

我們深切盼望看見更多教材和教學資源問世,幫助更多人在Raspberry Pi這款高CP值又具備擴充彈性的裝置上探索機器學習的各種可能性。

 

備註:若您想要購買樹莓派,可以前往機器人王國商城,謝謝。

 

相關文章

[ 新品開箱 ] 2018.08.29 – 透過ReSpeaker 6-Mic環形陣列模組 讓您運用Raspberry Pi打造個人專屬的智慧語音產品(可整合Amazon Alexa、Google語音助理喔!)

翻譯

宗諭

審閱

吉弘

說明

文、圖轉載、改寫自Seeed產品介紹網站,特此致謝!若您欲購買ReSpeaker 6-Mic環形陣列模組,請洽機器人王國商城

ReSpeaker 6-Mic環形陣列模組是Seeed最新出品的一款擴充板,也就是專門為樹莓派設計的HAT擴充板。它是一個形的麥克風陣列模組,配備有6顆麥克風,專門為人工智慧和語音應用而設計。這代表可以使用樹莓派做出一台功能更強大、更靈活的語音產品,同時可整合Amazon Alexa語音服務、Google語音助理⋯⋯等等。

 

樹莓派專用的ReSpeaker 6-Mic環形陣列模組,由兩個板所構成,一個是語音配件HAT板,另外一個是6個麥克風所組成的環形陣列。

 

ReSpeaker 6-Mic環形陣列模組在Raspbian作業系統中支持8個輸入和8個輸出通道。前6個輸入通道用於麥克風錄製,其餘2個輸入通道則用於回放。前2個輸出通道用於播放音效,其餘6個輸出通道則為虛擬。

圖1 硬體概覽圖

 

產品特色

  • 2個ADC晶片和1個DAC晶片

  • 8個輸入和8個輸出通道

  • 六個麥克風陣列

  • 支援Grove接頭

  • 相容於樹莓派40針連接埠

  • 耳機和揚聲器語音輸出

 

規格說明

  • 2 x X-Power AC108 ADC晶片

  • 6 x高性能麥克風

  • 1 x X-Power AC101 DAC晶片

  • 輸出連接埠:

    • 5mm 耳機接頭
    • 揚聲器連接埠
  • 相容於樹莓派40pin連接埠

  • 麥克風:Knowles SPU0414HR5HSB

  • 靈敏度:-22 dBFS (各方向)

  • SNR:59 dB

圖2 組裝圖

 

圖3 動態組裝圖

 

Applications應用

  • Smart speaker 智慧音箱

  • Intelligent voice assistant systems 智慧語音助理系統

  • Voice recorders 錄音應用

  • Voice conferencing system 語音會議系統

  • Meeting communicating equipment 會議通訊設備

  • Voice interacting robot 語音互動機器人

  • Car voice assistant 車用語音助理

  • Other scenarios need voice command 其他需要語音指令的場景

 

那麼,ReSpeaker 6-Mic環形陣列模組可有哪些方面的應用呢?例如智慧揚聲器、智慧語音助理系統、聲音錄音機、語音會議系統、會議通訊設備、語音互動機器人、汽車語音助理⋯⋯等等,或是在其他場景中需要語音命令,都可運用它。若是讀者們想要更多的創意應用,就有賴大家的研究、開發。

(若欲購買ReSpeaker 6-Mic環形陣列模組,請洽機器人王國商城

 

相關文章

[ STEAM好好玩 ] 樂高小屋大改造!!結合BOSON電子積木、micro:bit,立馬升級成智慧小屋!(有片請入)

市面上有多種樂高小屋套組,不知道讀者們有沒有想過,在小屋內再多加上樂高積木以外的東西呢?這次我們要讓樂高小屋與BOSON電子積木結合,激盪出更多變化。

作者/攝影

陳怡璇

文章分類教學技術文
時間

1小時內

成本

難度

*

材料表
    • LinkIt 7697*

    • Micro:bit*1

    • Boson inventor kit*1

    • (若欲購買,請洽機器人王國商城。)

首先,我們要先有一間樂高小屋。(各種樂高小屋皆可,只要空間足夠放入BOSON電子積木即可。)

圖1 樂高小屋

 

這次製做的樂高小屋分成兩部分,第一部分是單純的BOSON電子積木,第二部分是micro:bit加上BOSON。而單純BOSON的部分,我們會用到以下幾種積木:

  • Mainboard-3IO(3組輸入輸出的控制板)

  • 藍色無段開關*2(紅色無段開關是一樣的)

  • 運算邏輯模組NOT

  • 計時模組

  • 錄音機模組

  • 喇叭

  • 發光二極體(LED)

 

micro:bit加上BOSON的部分,則需要開關、光敏感測器及馬達。

 

第一部分:

Step1:

接下來就是分別接上。這邊又可分成兩個小部分,一是按下按鈕,錄音模組會發出聲音;另外是按下按鈕LED會亮起一段時間。不過在動手前,我們要先介紹主控版。主控版有輸入、輸出的區別,接的時候需要注意。請讀者們依照圖2電源接孔朝下擺正後,左邊接輸入,右邊接輸出(特別注意箭頭的方向,箭頭指出去的地方就是接輸出)。

圖2

 

一旦知道主控版如何使用後,我們就可開始接上其他積木了!讓我們先接上LED的部分。接上順序為 :無段開關→計時模組→運算邏輯模組NOT→主控版→發光二極體(請讀者們參考圖3)。接上計時模組時,跟主控版一樣,需注意箭頭的方向。

圖3

 

接下來,讓我們接上錄音機模組的部分。

 

接上的順序為:無段開關→主控版→錄音機模組→喇叭。錄音機模組沒有箭頭,不過接喇叭那邊的孔,只接兩條線所以比較小。

圖4

 

 

Step2:

最後就是micro:bit的部分了,這裡便不需要主控版和邏輯的積木了。請將馬達接至P0,光敏感測器接至P1,開關接至P3。

圖5

 

接完後,再來便是編寫程式。我們盼望達到的功能是:當有陽光會熱時,按下按鈕電風便開啟;當沒有陽光時,就算按下按鈕也不能開啟電風扇,這樣才能省電。所以,以下便是這次我們所需要的程式指令積木:

  • 【基本】重複無限次

  • 【邏輯】如果-那麼-否則、且0=0

  • 【引腳】數位信號讀取數位信號寫入

 

請讀者們依照圖6接上。在這裡,的程式指令積木,便能代替BOSON電子積木內的運算邏輯模組AND。

備註:運算邏輯模組AND的功能——當輸入的兩個條件皆達成,就能有輸出。

圖6

 

Step3 :

各方面都接好後,就可以裝在樂高小屋上面囉!

圖7

 

 

讀者們在組裝時,可依照自己的喜好進行改變,也可自己設定其它情境,增加更多的BOSON電子積木。

 

相關文章

 

[教學文] What!智能寶比可遙控!!沒錯,用超級搭檔LinkIt 7697 + Robot Shield達到(文末有彩蛋喔)

作者/攝影

文:Mason Chen (Mason亦為遙控智能寶比的作者,特此致謝!)

圖:Mason Chenfreepik (主題圖片背景)

文字潤飾:CAVEDU 宗諭

文章分類教學技術文
時間

成本

難度

材料表
  • LinkIt 7697*1

  • Robot Shield*1

  • 寶工智能寶比*1

  • 用來遙控的手機 *1

近來,不少Maker皆喜愛把現成的套件、模組加以改裝,置入開發板,例如LinkIt 7697、Arduino系列⋯⋯等等,使改裝後的套件、模組有更、更聰明的應用。比如之前我門曾專文介紹過的Wall-E機器人,便是一個很好的例子。

 

接著這股趨勢,本文所要介紹的,是由Mason Chen大大所改裝,可用手機的低功耗藍牙遙控的AI智能寶比。

 

寶工(Pro’s Kit)出品的「AI智能寶比」是一款智慧型機器人,能與8歲以上的小朋友一起互動、遊玩。它配有紅外線感應器,因此具備避障的功能,經過Mason的改裝後,把原先的紅外線感應玩法,改換成以手機的低功耗藍牙( BLE )進行遙控。

圖1 卡哇伊的智能寶比

 

小知識:什麼是低功耗藍牙(Bluetooth Low Energy,簡稱BLE)?

低功耗藍牙是一種個人區域網路技術,多應用於醫療保健、運動健身、家庭娛樂⋯⋯等領域。顧名思義,低功耗藍牙跟經典藍牙相比,目的在於保持同等通訊範圍的同時,顯著降低功耗及成本。根據藍牙技術聯盟(SIG)預測,至2018年,高於90%有藍牙的智慧型手機將支援低功耗藍牙。

 

接下來,我們就要進到硬體改裝部分:

 

Step1:把寶比的頭部拆下來,並且以斜口鉗或適當工具,把原先的電池檔板破壞掉。這部分會需要花點時間,且要小心處理,只破壞裏面,外殼要保留好。 處理完後可試擺LinkIt 7697與MiniPlan出品的Robot Shield,看看是否可以完全置入。

圖2

 

圖3

 

圖4

 

Step2:把原先的馬達插頭,按照圖5中所標示的,連接至 Robot Shield 中。

圖5

 

Step3:再把寶比的頭部小心地裝回去。這樣,硬體部分就完成了。

 

再來,是軟體開發部分:

Step1:我們使用 LinkIt 7697 arduino 進行開發。

  • 設定好Arduino IDE的環境,並燒錄已經寫好的程式至LinkIt 7697 中。
圖6

 

Step2:手機端請下載LinkIt Remote APP

  • 請打開手機藍芽,以及Robot Shield的電源。
  • 開啟 LinkIt Remote APP,順利的話,便可以找到已改裝好的寶比。
圖7

 

  • 按住Joystick移動,便可遙控寶比了。
圖8

 

文末彩蛋:透過Scratch 3.0遙控智能寶比

還記得之前的一篇文章,教大家運用Scratch 3.0連接micro:bit嗎?在Masen Chen大大的努力下,現在Scratch 3.0也可連接LinkIt 7697,進而控制智能寶比囉!其基本原理仍是運用Scratch Link連接Scratch 3.0與LinkIt 7697,然而,因Scratch 3.0並不支援LinkIt 7697,所以在運用Scratch Link之外,LinkIt 7697的韌體及Scratch 3.0上的指令積木皆必須重寫。至於如何撰寫、操作,就請各位讀者多跟Mason Chen大大交流了。

 

備註:若想購買相關開發板,請點這裡,謝謝。

 

相關文章

[教學文] 當Scratch 3.0連接上micro:bit 驚人的創意產生了⋯⋯

作者/攝影

撰寫:宗諭

圖片:freepik

文章分類教學技術文
時間1hr
成本

材料表
  • micro:bit*1(如欲購買,請洽機器人王國

  • USB2.0 A公 to Mini-B/公傳輸線*1

之前阿吉老師曾拍攝過一段影片,也同步發表了一篇文章,向大家解說如何運用Scratch 3.0介面連接LEGO EV3機器人,獲得許多讀者的迴響。因此,CAVEDU教育團隊再接再厲,將透過本文跟大家分享,如何運用Scratch 3.0介面連接時下最夯的micro:bit。一起來操作吧!

 

Step1:點選程式左下角的「擴充功能」

圖1

 

Step2:在擴充功能頁面中,點選「micro:bit」。

圖2

 

Step3:若您首次嘗試用Scratch 3.0連接micro:bit,將跳出一個視窗,詢問:(1)確定已經安裝並執行Scratch Link;(2)檢查藍牙是否開啟。直接點選「?幫助」即可。

圖3

 

Step4:根據您電腦的作業系統是Windows或macOS,下載並安裝適合的「Scratch Link」。筆者的電腦是Macbook air,但在Windows作業系統上的操作步驟也是大同小異的。

圖4 點擊藍色按鈕,下載並安裝「Scratch Link」。

 

Step5:安裝好「Scratch Link」後,在您的電腦的程式集中點擊Scratch Link的圖標,啟動Scratch Link。

圖5 啟動Scratch Link

 

如果Scratch Link有成功被啟動的話,應該會有小圖標顯示在工具列上,如圖6。

圖6

 

Step6:將micro:bit連接至電腦

圖7

 

Step7:接下來,要下載Scratch micro:bit HEX檔案。請點擊圖中箭頭指示處。

圖8

 

小知識:HEX檔案是什麼?

HEX文件檔案是嵌入式軟體開發中,經常可見的數據格式,常被用來保存單晶片或其它處理器的目標程序代碼。而HEX文件包含了地址資訊,所以在燒入或下載HEX檔案時,一般都不需要使用者指定地址資訊。

 

Step8:然後,我們要把剛剛下載的HEX檔案,拖曳至micro:bit中,如圖9。

圖9

 

Step9:讓我們回到Scratch 3.0編輯器,選擇「擴充功能」,點選「micro:bit」。

圖10

 

Step10:會看到圖11的畫面,按下「開始連線」。

圖11

 

這樣就連線成功了,請參考圖12。接下來,讓我們回到Scratch 3.0編輯器進行一點小測試。

圖12 連線成功!請點選「回到編輯器」。

 

回編輯器後,可看見指令積木區當中,多了一個micro:bit指令區,見圖13。

圖13

 

然後我們拉出兩個指令積木:「when A button pressed」及「display Hello!」,然後組合起來,如圖14。

圖14

 

現在,按一下micro:bit上的A按鈕,是不是看到LED矩陣閃爍出「Hello!」呢?接下來,就是讀者們發揮創意的時間囉!

 

相關文章