Tag Archives: Raspberry Pi

[ 介紹文 ]CAVEDU教育團隊如何看AI 與科技教育

作者/攝影

文:曾吉弘

圖:CAVEDU教育團隊

主題圖片:Designed by Starline

文章分類介紹文
成本X
難度

X

時間X

 

CAVEDU怎麼看 AI 人工智慧

近年來全世界都掀起了一股「大家來coding」的風潮,台灣政府也開始推動基礎程式教育,目標是讓孩子們能在學習程式設計的過程中培養基礎的運算思維(Computational thinking)能力,能對這個快速變動的環境有更多的好奇心與觀察力。另一方面,自從大陸在今年(2018) 4月於上海發表全球第一本AI高中教材《人工智能基礎》之後,大家好像都緊張了起來:

  • 業界:「不 AI 一下,好像不行?得趕快說自己是 AI 產業。

  • 家長、同學:「我要找 AI 相關科系!」(當年的生科與資管也是這樣?)

  • 學校老師:「把原本的課程名稱加上AI兩個字!

 

上述也許誇大了點,但科技領域關鍵字一日數變,AI 領域又包山包海,除了極少數頂尖研究者之外,又有誰敢說自己是 AI大師、AI領航者呢?

 

AI 等資訊科技是現在進行式,今天弄得要死要活的東西,明天說不定點點按鈕就好了?近兩年物聯網教學就是很好的例證,使用 LinkIt 7697 搭配 MCS 雲服務,已經能讓國小學生也能做出簡單的物聯網專案,從網頁與手機就能監看感測器資訊或控制開發板。在此的並非說網路通訊協定不重要,而是對於非專業人士來說,這樣的設計能幫助他們聚焦在最重要的事情上:資料。如果資料對於開發者來說是有意義或是重要的,那先從資料本身開始是個相當好的出發點。

圖1

 

圖2

 

關鍵字會變,但流程與理論基礎不會。CAVEDU從2008年開始使用樂高機器人來教學(如果要回溯到我與鄭建彥最開始接觸樂高的話,那是1999年的RCX了),一路邁入手機App (Android / App Inventor@2010)、互動聯網裝置(Arduino / Rpi / LinkIt…@2013)、物聯網(@2015) 到去年開始如野火燎原一般的 AI。如果只追關鍵字的話,真的會無所適從。

 

根據美國麻省理工學院媒體實驗室終身幼兒園小組的Mitchel Resnick教授表示,幼兒(小學前)時期可說是我們一生中最具創造力的時候。該團隊所開發的 Scratch 已經是小學階段的最主要圖形化程式介面之一,Resnick教授也主張 「Scratch 是幫助孩子們成為創意思考者(Creative Thinker)的絕佳平台」,並致力於讓 Scratch 「很簡單」,他認為程式提供愈多功能或愈多元件反而會限縮孩子們的創造力。(關於創意思考者,請參考 Learning Creative Learning 課程,正體中文由阿吉老師與諸多好朋友一起翻譯完成。)

 

另一方面,MIT App Inventor小組創辦人 Hal Abelson 教授(阿吉老師於2017- 2018 於該實驗室擔任訪問學者)也說:「如果資訊科技一日數變,那為什麼還要讓孩子們和他們的祖父母一樣的方式來學習?” 因此,在這股浪潮下也有另一種反思:「是否人人都需要學如何寫程式?這樣同質化的過程會對孩子造成怎樣的影響?

 

CAVEDU的理念是:根據當前的科技發展趨勢,針對不同學習課群提供合適的教學內容。

 

對於孩子來說,好玩最重要

圖3

 

圖4

 

點我觀看與Hal Abelson教授的訪談   /   點我觀看與Mitchel Resnick教授的訪談

 

使用 Raspberry Pi 實作AI 視覺辨識無人小車

AI 對多數人來說,還是太虛無飄渺了。CAVEDU 為了讓學生理解 AI 諸多領域中最容易有感也是最容易實踐的:視覺辨識,我們使用 Raspberry Pi B3+ (後簡稱 Pi3)所設計的 「邊緣運算 AI 無人自駕小車」。

 

這是我們認為對於基礎 AI 視覺應用的最佳教學套件。之所以選用 Pi3 自然是因為其性價比以及豐富的教學資源,當年還是 Pi 2的時候就有相當不錯的 OpenCV 視覺追蹤效果,各樣的函式庫套件也非常豐富,一下子很多專題都可以使用它來完成,與Arduino 兩者號稱是學生專題救星呢(笑)!

 

AI 視覺應用的難點在於收集影像資料。喜歡養貓的阿吉老師開玩笑說:「我要幫我家的貓要拍多少張照片都沒問題,但是要蒐集十種不同的貓就難囉!」我們所設計的課程會帶學生體驗完整的訓練流程,不使用現成的資料集(因為訓練結果不會差太多),而是針對無人小車的場地實際收集影像,標記,最後選定模型來進行訓練。其中每一個環節都會影響到小車最終的辨識結果。一定有感!

圖5 學員自行收集的影像資料

 

圖6 AI視覺辨識課程實況

 

圖7 視覺辨識課程使用的AI無人小車

 

邊緣運算?

邊緣運算是指終端裝置也具有一定的能力來處理資料 ,可以加快資料的處理與傳送速度,只要把運算後的結果而非原始資料丟回雲端 (不過不一定什麼事情都要與雲端結合,後續會繼續討論)即可,自然能大幅減少因網路頻寬受限而產生的延遲。

 

例如就經濟面的考量,如果要做到抓到臉部之後能進一步辨識情緒/微笑或五官位置這類功能的話。後面的進階功能可以使用 Microsoft Azure 認知服務 或其他類似的雲端服務來做到,但這些雲端服務都需要付費(或部分免費),且多數需要信用卡來進行身份認證,這件事在多數學校就卡關了吧…   因此我們在課程設計上就朝「終端裝置就能做到」這個方向來努力。在此簡單做一些比較:

 

邊緣運算 VS 雲端服務

  1. 程式碼開源雲端服務很厲害,但它不會告訴你他是怎麼算的。我們能做的只能相信這些雲端服務供應商的結果。例如:Facebook 每天都有一大堆人在打卡與自拍,合理推斷在超大量的資料之下,Facebook在辨識臉孔上非常準,當然事實也是如此。如果把這些運算改到邊緣裝置來做的話,由於程式碼已知,就能循序漸進讓學生學到更多東西,也可以針對後續的情境來擴充。
  2. 不受網路環境影響:相信各位老師都體認到了:教室可以上網,不代表可以進行物聯網教學。能夠進行物聯網課程的話,教室的 router 要很夠力,基本要能夠負擔 「上課人數 x 3」的連線數:聯網裝置 + 手機 + 電腦 都要在同一個網段下才行。因此20人上課,連線數的基本需求就是 60。已經有許多學校著手升級網路基本設備,非常欣慰。
  3. 運算即時:以 CAVEDU 的AI教學車為例,這樣的情境就需要即時,而非連結雲端。Rpi 的速度不算太快,拍照上傳雲端,呼叫API,收到回傳結果來決定車子動作,這個過程再怎麼快也要3~5秒,這樣就算偵測到什麼東西,車子也已經撞牆了。因此有些標榜AI語音辨識結合自走車控制,好像有點奇怪⋯⋯。

 

作為邊緣運算裝置,如何提升 Raspberry Pi 的算力?

CAVEDU 的 Pi3 AI無人小車,直接讓 Rpi 執行使用 Keras 神經網路架構來進行視覺辨識,辨識張數每秒約2~5張(0.5 ~ 0.2秒/張)。這大大限制了車子的移動速度。畢竟,Pi 3只要開多一點網頁,系統就到100%了,何況大量的模型訓練呢?在不更換主板的前提下,要如何提升 Raspberry Pi 的算力呢?

 

Intel 所推出的 Movidius NCS神經運算棒來得恰到好處,可以把最耗資源的運算分一點去做。以 Pi3 小車來說,只要搭配一隻 Intel Movidius NCS 就可以讓每秒的張數提升到每秒約14~20張(0.07 ~ 0.05秒/張)。算是相當經濟實惠不錯的選擇,當然也可以期待 Pi 4就是了。根據 Intel 原廠文件表示,可以串接多隻 Movidius 達到更好的效能。

 

的確,覺得Pi 效能不佳的讀者,當然可以購買更高級的硬體例如 Nvidia TX1,但對於學校來說,經費可以買幾台呢?買一台大家圍著看嗎?另一方面,課程的延伸性呢?本課程已經與台灣微軟技術中心合作開辦多梯次的人工智慧實務工作坊(AGV),並搭配其 Azure 雲服務下的資料科學虛擬機器 (Data Science Virtual Machine) 來加速神經網路訓練速度,適合業界人士使用。另一方面,對於教學單位來說,可使用個人電腦來進行訓練,使用我們所提供的架構使用一般的電腦也可以完成訓練,並搭配 Pi3 完成至少一學期的課程(課表已經完成,歡迎來信索取或找我們去辦研習喔!E-mail:service@cavedu.com

圖8 Intel Movidius NCS神經運算棒

 

CAVEDU 提供各式各樣的最新課程,當第一線教學者的強力後盾。如果您也認同CAVEDU的理念,不喜歡好高騖遠的名詞大戰,歡迎來CAVEDU走走看看。

 

相關文章

 

 

[Raspberry Pi] 電腦跨網段,也可遠端連線樹莓派喔!!

本篇為[Raspberry Pi] 如何使用遠端桌面 的延續文章,使用RealVNC與各位讀者分享,如何不需在同一網段內也可進行遠端連線。

作者/攝影

CAVEDU教育團隊 許鈺莨

文章分類教學技術文
時間一小時內
成本最低1500起
難度

*

材料表
  1. 電腦或其他行動裝置
  2. Raspberry Pi(若欲購買樹莓派,請洽機器人王國商城)

1.在Raspberry Pi上安裝VNC

一開始必須在Raspberry Pi安裝VNC Connect,建議外接螢幕、鍵盤、滑鼠,或用類似像Putty、MobaXterm的軟體SSH登入Raspberry Pi,相關教學請看
[Raspberry Pi] 完全不接螢幕鍵盤滑鼠,電腦一開始就用網路線遠端連線Pi 

 

打開終端機之後,請鍵入:

	sudo apt-get update
	sudo apt-get install realvnc-vnc-server
圖1

 

圖2

 

圖3 按Y同意安裝,即可安裝完成。

 

如何開機自動執行RealVNC

a.有接螢幕、鍵盤、滑鼠

圖4 點選左上角樹莓派圖示,選「Preferences」 ->「Raspberry Pi Configuration」。

 

圖5 選「Interfaces」,再至VNC選「Enabled」。

 

圖6 重新開機即可

 

b.使用Putty或MobaXterm等軟體SSH遠端登入

在終端機輸入:

	sudo raspi-config 

 

圖7

 

會出現選項,如下圖:

圖8 選「Interfacing Options」

 

圖9 再選VNC選項

 

圖10 選擇即可設定完成

 

2.在VNC官網註冊帳號

就和登入臉書或LINE等通訊軟體的概念一樣,要先註冊一組帳號,VNC官網: https://www.realvnc.com/en/onboarding/home/ ,註冊完畢後,便可依自己的帳號登入。

圖11 建立新帳號

 

圖12 勾選「我不是機器人」選項

 

圖13 填寫個人相關資訊

 

圖14 其它行動裝置教學

 

由於RealVNC可由帳號登入,所以不管是電腦或是可上網的行動裝置,只要安裝RealVNC Viewer,皆可遠端登入,讓我們以電腦為例子。

圖15 收到驗證信件

 

圖16 註冊成功

 

如圖15,當收到驗證信件時,請按下「VERIFY EMAIL」按鈕後,會跳轉至官方頁面,顯示如上圖16,表示註冊成功。

 

3.下載RealVNC Viewer至電腦

圖17 下載RealVNC Viewer(以Windows版本為例)

 

圖18 安裝完成畫面

 

圖19 按右上角「Sign in」輸入帳號

 

圖20 登入畫面,右邊為欲登入Raspberry Pi的區域。

 

4.遠端登入Raspberry Pi

圖21 新增連線對象,選「File」->「New connection」。

 

圖22 輸入Raspberry Pi的ip 位置及名稱後,按下OK。

 

圖23 成功新增連線對象Raspberry Pi

 

圖24 輸入驗證的使用者和密碼

 

這裡預設Username為「pi」,Password為「raspberry」。

圖25 第一次連線會出現認證警告,按「Continue」即可。

 

圖26 遠端登入成功畫面

 

相關文章

[ 翻譯 ] 2018.08.03-根據TensorFlow團隊,TensorFlow 1.9正式支援樹莓派

原文作者

Pete Warden

圖片

CAVEDU教育團隊

翻譯宗諭審閱吉弘
說明

感謝作者Pete Warden的授權翻譯,特此致謝!

When TensorFlow was first launched in 2015, we wanted it to be an “open source machine learning framework for everyone”. To do that, we need to run on as many of the platforms that people are using as possible. We’ve long supported Linux, MacOS, Windows, iOS, and Android, but despite the heroic efforts of many contributors, running TensorFlow on a Raspberry Pi has involved a lot of work. Thanks to a collaboration with the Raspberry Pi Foundation, we’re now happy to say that the latest 1.9 release of TensorFlow can be installed from pre-built binaries using Python’s pip package system! If you’re running Raspbian 9 (stretch), you can install it by running these two commands from a terminal:

當TensorFlow於2015年首次發佈時,我們希望它是一個「給所有人的開源機器學習框架」。爲要達成這一點,我們需要盡可能讓它在更多人們使用的平台上運作,所以,我們長期以來支援了Linux、MacOS、Windows、iOS及Android等作業系統。然而,儘管許多貢獻者已經貢獻卓越,在Raspberry Pi上運行TensorFlow仍有許多工作需要完成。感謝與Raspberry Pi基金會的合作,我們現在很高興能宣佈:最新的TensorFlow 1.9版,可透過Python的pip套件系統來安裝建置好的二元檔了!若您正使用Raspbian 9(Raspbian stretch),只要從終端機輸入下面這兩道指令來安裝它:

 

sudo apt install libatlas-base-dev
pip3 install tensorflow

 

You can then run python3 in a terminal, and use TensorFlow just as you would on any other platform. Here’s a simple hello world example:

接下來,您可在終端機上運作python3,並如同在任何其它平台上一樣使用TensorFlow。下面是一個簡單的hello world範例:

 

# Python
import tensorflow as tf
tf.enable_eager_execution()
hello = tf.constant(‘Hello, TensorFlow!’)
print(hello)

 

If the system outputs the following, then you are ready to begin writing TensorFlow programs:

Hello, TensorFlow!

如果看到以下內容:Hello, TensorFlow!, 那您便可開始編寫TensorFlow的程式。

 

There are more details on installing and troubleshooting TensorFlow on the Raspberry Pi on the TensorFlow website.

更多細節,請參考TensorFlow官網上的內容

 

We’re excited about this because the Raspberry Pi is used by many innovative developers, and is also widely used in education to introduce people to programming, so making TensorFlow easier to install will help open up machine learning to new audiences. We’ve already seen platforms like DonkeyCar use TensorFlow and the Raspberry Pi to create self-driving toy cars, and we can’t wait to discover what new projects will be built now that we’ve reduced the difficulty.

我們對這件事感到很興奮,因為Raspberry Pi早已被許多創新開發者使用著,也被廣泛應用於教育領域來推廣程式教育。所以,讓TensorFlow更容易安裝於Raspberry Pi上,將有助於新朋友認識何謂機器學習。我們已經看到像 DonkeyCar 這樣的平台使用TensorFlow與Raspberry Pi來做出能夠自動駕駛的玩具小車。我們也迫不及待想知道,在使用難度降低之後,會有哪些新專案誕生。

 

Eben Upton, founder of the Raspberry Pi project, says, “It is vital that a modern computing education covers both fundamentals and forward-looking topics. With this in mind, we’re very excited to be working with Google to bring TensorFlow machine learning to the Raspberry Pi platform. We’re looking forward to seeing what fun applications kids (of all ages) create with it,” and we agree!

Raspberry Pi創辦人Eben Upton表示:「現今的電腦程式教育必須涵蓋基礎知識與前瞻性的主題。考慮到這一點,我們非常興奮能與Google合作,將TensorFlow機器學習引入Raspberry Pi平台。我們期待看見所有年齡層的孩子們能運用它來打造各種有趣的應用。」這,我們完全同意!

 

We’re hoping to see a lot more educational material and tutorials emerge that will help more and more people explore the possibilities of machine learning on such a cost-effective and flexible device.

我們深切盼望看見更多教材和教學資源問世,幫助更多人在Raspberry Pi這款高CP值又具備擴充彈性的裝置上探索機器學習的各種可能性。

 

備註:若您想要購買樹莓派,可以前往機器人王國商城,謝謝。

 

相關文章

[Raspberry Pi] 不再備份整張SD卡,縮小RaspberryPi備份容量

作者

袁佑緣

時間

三小時

難度

***

材料表

  1. Raspberry Pi  (2018 Pi3+測試中)
  2. PC
  3. SD Card

在使用Raspberry Pi時, 我們常希望如果能夠將辛辛苦苦安裝完的系統備份起來, 以後只要將這個備份出來的映像檔燒錄到新的SD Card上, 就可以還原之前的系統了。

好比說在這篇文章中 [AI人工智慧應用] 在Raspberry Pi上安裝NCSDK , 光是安裝NCSDK以及編譯OpenCV函式庫就要花上快半天的的時間, 要是能夠直接備份系統的話, 以後就不用再花時間一直重新安裝了。

所以本篇將介紹如何備份Raspberry Pi的系統, 並把它做成映像檔存起來, 另外,一般來說備份出來的映像檔都會相當大, 好比說原本的記憶卡是16GB大小的, 備份出來的映像檔就會有16GB這麼大, 保存或傳輸檔案都非常不方便, 所以文章的後半段會探討怎麼縮減備份映像檔, 希望盡量壓縮到方便傳輸的大小, 例如本範中將原本16GB的映像檔縮減並壓縮到3.8GB大小的壓縮檔。

 

Windows系統下備份映像檔

在Windows作業系統下備份映像檔我們需要額外下載額外的工具, 請到以下的網址下載win32diskimager。

下載完成後, 請打開win32diskimager程式, 如下圖, 並點擊Device旁邊的資料夾圖示, 選擇映像檔要存檔的位置。

如下圖,選好存檔位置後,打上要存檔的檔名。

完成後,請將要備份的Raspberry Pi SD Card插到電腦上, 並在Device那邊選擇磁區, 如下圖的F槽, 選完按下下方的Read按鈕就會開始備份囉!

Linux系統下備份映像檔

在Linux系統下進行備份的話, 除了可以使用指令直接進行備份外, 還可以對備份出來的映像檔進行縮減大小的加工。

如果讀者的電腦不是Linux的作業系統的話, 建議可以參考此篇的教學[AI 人工智慧應用] MovidiusNCS在PC中設定Ubuntu虛擬機並執行NCSDK(上),使用虛擬機安裝一個Ubuntu linux的作業系統。

接下來我們進到正題, 首先請打開終端機, 輸入以下的指令

sudo dd bs=4M if=/dev/mmcblok0 | zip NCS-raspbian.zip -

讓我們一步步拆解這行指令的內容, /dev/mmcblok0是Raspberry Pi的SD Card插到電腦上後, 電腦辨識出的磁區位置(不同的電腦可能會辨識出不同的位置), 接著我們用dd指令將整個SD Card上的資料以4M的block size進行備份, 備份的過程中我們把這個備份出來的映像檔, 經過pipe(|)傳到zip指令中, 即時的使用zip指令將這個映像檔做壓縮, 最後存成一個壓縮檔叫做NCS-raspbian.zip, 至於前面加了sudo是因為要取用/dev/mmcblk0的話, 會需要用到超級使用者的權限。

順代一提, 使用dd這個備份工具的話, 預設是沒有明顯的備份過程顯示, 所以常常不知道現在的進度到那裡了, 所以筆者建議可以在dd指令中多加一個參數, 將dd的狀態(status)用progress這隻小程式顯示出來。

sudo dd bs=4M if=/dev/mmcblok0 status=progress | zip NCS-raspbian.zip -

備份過程如下圖。

另外如果說讀者的電腦上沒有progress這隻小程式的話, 可以透過系統的套件管理員來安裝, 如下圖(以Ubuntu系統為例)。

sudo apt-get install progress

縮減備份映像檔的大小

實際上, 備份出來的映像檔雖然經過zip壓縮後, 看起來會比較小, 但是在燒錄到新的SD Card時, 還是會解壓縮成原始的大小, 也就是原本的SD Card大小如果是16GB(即便是Raspberry Pi的系統實際上只用了6GB左右), 所以在這一小節, 我們要來探討一下怎麼縮減掉映像檔中不必要的部份。

首先我們把剛剛備份出來的壓縮映像檔解壓縮。 請輸入以下指令來解壓縮, 並存成映像檔NCS-raspbian.img。

unzip NCS-raspbian.zip NCS-raspbian.img

接著我們使用fdisk看一下這個映檔的內容以及大小, 如下圖, 應該會看到兩個部份, 一個其實就是Raspbian的boot的部份, 另外一個則是存放root系統的磁區。

我們記下第二個部份的Start位置, 如上圖的94208, 接下來將這個sector數值乘上512, 轉成標記第二個磁區的offset(單位是bytes) 並用losetup掛載到Linux系統上的loop device(/dev/loop0)

sudo losetup /dev/loop0 NCS-raspbian.img -o $((512*94208))

完成後, 先確認所使用的系統中有沒有gparted這隻程式, 如果沒有的話, 請使用套件管理員將它安裝完成, 以Ubuntu為例,

sudo apt-get install gparted

接著輸入以下的指令來對/dev/loop0這個裝置進行進一步的操作,

sudo gparted /dev/loop0

成功執行的話, 應該可以看到如下的視窗跳出。

請點選/dev/loop0這個裝置, 並按下右鍵選擇Resize, 最後拉動上方的磁區大小滑桿, 拉到想要縮減到的大小(建議在Minimum size外再留一些空間會比較好喔), 如下圖。

Resize設定完成後, 回到主畫面, 並按下上方的Apply按鈕, 開始進行重新劃分大小。

劃分過如下圖。

Resize完成後, 先別急著關掉, 請在Details那邊找到shrink file system底下的resize2fs -p ‘/dev/loop0’ 8388608K (詳細的數字可能有所不同), 這個數字是待會要進行縮減映像檔大小時會用到的數字。

 

怕忘記的話, 建議讀者可以按下Save Details把資料存起來。

最後我們不需要這個loop裝置了, 請輸入以下指令將它消掉。

sudo losetup --detach-all

最後我在重新使用losetup將整個映像檔掛到loop裝置上, 並使用fdisk工具來對它做重新切割磁區。

sudo losetup /dev/loop0 NCS-raspbian.img
sudo fdisk /dev/loop0

接下來, 在fdisk中輸入 d(刪除磁區), 2(指定刪除磁區2), n(新增一個磁區), p(選擇主要磁區), 2(選擇為磁區2), 94208(使用前面記下的起始sector), +8388608K(使用剛剛gpated中記下的縮減後的大小)

實際操作如下圖。

最後輸入w(寫入新的磁區分割), 過程中如果出現以下的提示, 請輸入N, 以保留ext4的檔案格式。

重新切割完磁區後可以輸入

sudo losetup --detach-all

來退出loop裝置。

改完磁區大小後, 我們要把映像檔中的多餘的部份去掉, 請先輸入

fdisk -l NCS-raspbian.img

並記下End Sector的位置, 如圖中的16871423。

最後使用truncate指令來去掉End Sector以後不要的部份。

truncate -s $((512*(16871423+1))) NCS-raspbian.img

讀者可以輸入以下的指令來查看裁剪過的映像檔明顯變小了(14.7GB → 8.1GB)

ls -lh NCS-raspbian.img

(補充) 使用pishrink來縮減映像檔大小

這邊補充網路上有人分享的專門用來縮減Raspberry Pi映像檔的工具, 叫做pishrink, 詳細的介紹可以去參考這個

請輸入以下的指令下載pishrink腳本。

wget https://raw.githubusercontent.com/Drewsif/PiShrink/master/pishrink.sh

將pishrink檔案屬性改為執行檔, 並用超級使用者的權限去執行縮減映像檔大小, 如以下的範例中, 用pishrink來縮減backup.img這份備份的映像檔。

chmod +x pishrink.sh
sudo ./pishrink.sh backup.img

燒錄映像檔到新的SD Card上

以上的映像檔縮減操作完成後, 建議可以重新做個壓縮檔, 讓檔案在更小一點方便傳輸。

zip NCS-raspbian.zip NCS-raspbian.img

現在如果說我們要將這個備份的映像檔壓縮檔燒錄到新的SD Card上時, 我們可以透過https://etcher.io/[Etcher]燒錄軟體,

指定映像檔的壓縮檔位置

插入SD Card後選擇裝置的位置,按下Flash燒錄即可。

 相關文章:

[Raspberry Pi] 完全不接螢幕鍵盤滑鼠,電腦一開始就用網路線遠端連線Pi

 

作者

袁佑緣

時間

三小時

難度

***

材料表

  1. 電腦
  2. Raspberry Pi  (2018 Pi3+測試中)
  3. 網路線
  4. USB轉RJ45接頭(如果電腦需要額外的網路孔的話))

我們在使用Raspberry Pi時,常會需要額外的設備例如準備螢幕、鍵盤、滑鼠才可以操作, 使用上非常的不方便,而本文就是我們將介紹如何只透過一條網路線就能操作Raspberry Pi, 並且還可以透過筆電或桌電分享網路給Raspberry Pi,不用再辛苦地去接無線網路。

在PC中設定網路分享

以下的內容將會以Windows的作業系統為主(本範例用的是Win10), 使用macOS的朋友請直接參考另外一篇教學文 Raspberry Pi 教學-使用網路線讓電腦與樹莓派進行連線(For Mac OS X)

首先請先打開控制台(control panel),並打開網路設定。

接下來進到網路共用中心(Network and Sharing Center)。

應該會看到電腦上可以用的網路裝置,以筆者的電腦為例, 筆者有兩個乙太網路裝置,一個是讓電腦可以連到外網的裝置(“乙太網路”), 另外一個則是USB轉乙太網路卡(“乙太網路 2”),我們希望可以將這個連到外網的網路, 透過這個USB轉乙太網路卡分享網路給Raspberry Pi。

如果讀者現在打開左邊的網路介面卡設定(Change adapter settings)的話, 應該可以看另外一個網路裝置是打叉的, 因為我們在這上面還沒有設定網路, 如果直接接到Raspberry Pi上是不會有任何反應的。

所以為了要讓這個要分享給Raspberry Pi能有網路, 我們必須要從另外一個有接到外網的裝置, 分享網路給另外一個裝置。

點選功能(properties), 接下來選擇分享(Sharing)的選項, 並將分享的功能勾選如下圖, 並指定裝置為欲分享網路的裝置, 例如本範例中的”乙太網路 2″。

完成後可以點選欲分享網路的裝置中的詳細資料(Details), 如下圖,讀者可以看到右邊的IPv4 Address是192.168.137.1, 這是所分享的網路中的電腦IP位址, 但實際上Raspberry Pi的IP位址還不知道。

掃描Raspberry Pi的IP

所以我們還需要額外的工具來掃描Raspberry Pi的IP位址, 例如本篇範例中用到的Advaned IP Scanner, 這是一款免費的IP掃描工具, 讀者可以從以下的網址來下載。

接下來請安裝IP Scaner。

安裝完成後,執行IP Scanner, 如下圖,按下Scan之後就可以掃描電腦網域附近的可能裝置, 另外為了要節省少描的時間, 建議讀者可以把欲掃描的IP範圍給定, 例如本範例中的192.168.137.1-254。

最後我們記下掃到的Raspberry Pi IP位址, 例如本範例的(192.168.137.173)。

接下來我們只剩下最後一步, 就是要如何透過網路連線到Raspberry Pi, 一般來說我們會用SSH來去連這個IP, 進而登入Raspberry Pi的系統當中。

SSH連線到Raspberry Pi

為此我們必須準備好SSH的工具, 筆者建議可以透過 Chrome瀏覽器的插件Secure Shell 來進行SSH連線,因為瀏覽器是跨平台的,所以就算在macOS的系統上也可以適用。

安裝完成後,讀者可以直接在瀏覽器的網址列直接打上”ssh”, 接下來再按下Tab鍵就會自動進入ssh插件模式, 然後就可以打上”Raspberry Pi使用者@Raspberry Pi IP位址”, 例如本範例的”pi@192.168.137.173″。

初次登入的話,一開始會先建立金鑰的認證, 請輸入”yes”來同意認證。

成功登入後就會如下圖, 會進到一個Raspberry Pi中的shell中。

補充

如果讀者是在Raspberry Pi上安裝官方推薦的Raspbian系統的話, 一般來說,為了安全考量,預設都是會關閉SSH的功能, 所以說如果Raspberry Pi可以拿到電腦分享網路的IP, 但是卻SSH卻登不進去的話,可以按照下面的步驟來強制開啟SSH的功能,

首先請先將Raspberry Pi的燒錄過系統的SD卡插到電腦上面, 並打開裡面的”boot”磁區,如本範例中的F槽。

接著再右鍵新增一個空白文件,命名為ssh。

 

當Raspbian開機時,如果說boot磁區中有一個檔案檔名叫做ssh的話, 就會強制開啟ssh的功能,如下圖。

相關文章:

 

[Raspberry Pi]自製縮時攝影機

最近常常用到3D印表機做些小玩具,通常都是今天開始印,隔天成品才做好,如果用樹莓派做個縮時攝影機,把3D列印的過程拍下來一定很有趣,讓我們來動手做吧!

作者/攝影  郭曜銘
時間  30 分鐘
成本
  • Raspberry Pi 2 or 3
  • Webcam
  • SD card
難度 * *
材料表
  • Raspberry Pi 2 or 3
  • Webcam
  • SD card

升旗縮時:這部影片拍攝三十分鐘,大約五秒一張。

3D列印縮時:這部影片拍攝七小時,大約十五秒一張

 

—-事前準備—-

  • 將Raspberry Pi安裝好作業系統(RASPBIAN JESSIE)https://www.raspberrypi.org/downloads/raspbian/
  • 接上電源和webcam。
  • 確認已連上網路。
  • 在樹梅派開啟終端機或用電腦連線至終端機畫面。

 

—-正文開始—–

一、更新系統及套件

1.輸入指令”sudo apt-get update”來更新你的系統

2.輸入指令”sudo apt-get upgrade”來升級已安裝的套件包

 

二、安裝拍照軟體”motion”

1.輸入指令”sudo apt-get install motion”來安裝motion

 

三、設定拍照軟體”motion”

1.輸入指令”sudo nano /etc/motion/motion.conf”,這裡使用”nano”編輯器來更改motion 的設定檔(你也可以使用你慣用的編輯器來編輯設定檔)。

2.在”nano”中你可以使用組合鍵”Ctrl+W”在文件中快速查詢關鍵字。

3.將下表中的值修改成對應的數值

名稱數值附註
daemonON3.png
framerate10004.png
Stream_quality1005.png
Stream_localhostOFF6.png
webcontrol_localhostOFF7.png
quality1008.png
width12809.png 此數值為webcam解析度的寬
height72010.png此數值為webcam解析度的高
Snapshot_interval1011.png 每隔10秒拍一張
target_dir/home/pi12.png 照片存檔的位置

4.使用組合鍵”ctrl+X”離開nano,輸入”y”跟”enter”以保存檔案

5.輸入指令”sudo nano /etc/default/motion”編輯另一個設定檔

6.將名稱”start_motion_daemon”的值改成”yes”,並儲存離開

 

四、啟動攝影機

1.將你的攝影機擺放好

2.輸入指令”sudo service motion restart”重新啟動motion程式

3.輸入指令”sudo motion”執行程式

 

五、取得照片製作成影片

1.輸入指令”sudo motion stop”停止拍照

2.用隨身碟或SFTP將拍到的照片傳輸回電腦,照片會存在你剛剛設定的路徑。

 

3.利用影片製作軟體將所拍攝的照片製作成縮時攝影

我之前是用windows7內建的movie maker,你也可以使用更專業的剪輯軟體來製作影片。

 

相關文章:

放課後限定 – AR拍照體驗 (Android) 與拍照機上傳Google相本 (Raspberry Pi)

放課後倒數4天了,我們精心準備了很多好玩的東西,本篇來介紹 AR拍照體驗 (Android)拍照機 (Raspberry Pi)。一定要來玩玩看喔!

AR拍照體驗 (Android + Unity)

使用 Unity 做的 Android app,開啟相機之後掃描[放課後](放心,這三個字在現場到處都是~),就會跳出可愛的小圖框,火箭框會旋轉喔~   旋轉到喜歡的位置就拍照吧~

圖像裡可能有文字

請先下載Android app吧,記得給我們評分喔

拿新書與鋼彈合照是一定要的

沒有自動替代文字。

拍照機 (Raspberry Pi)

剛好公司有現成的 pitop CEED,有片不錯的螢幕與外殼,就直接拿來用了。拍照之後就會上傳到放課後的 Google 相本(會加上圖框喔)

歡迎您來現場玩玩看這台拍照機,後續要改造或用於上課都非常棒喔

拍照後會自動把照片加上放課後圖框傳到放課後的 Google 相本,來看看拍照的效果吧

[TJBOT紙板機器人]CAVEDU 組裝設計升級 2.0

您如果還沒看過我們上一篇TJBot組裝心得發表文,趕快去看不用擔心,這不會影響您的閱讀順序,但是可能會少一些閱讀樂趣。

如果您是在【機器人王國商城】shop.robotkingdom.com.tw購買TJBot的套件,請以本篇敘述的方式來組裝。

購買TjBot傳送門:http://shop.robotkingdom.com.tw/humanoid-robot/tjbot01.html

作者/攝影  鄭建彥
時間  15分鐘
成本  總共約新台幣3,675 元 (想買TJBOT材料包可點選 商城連結 )
難度  * * *
材料表
  • TJBot的雷切紙模板
  • Raspberry Pi B+(或是更新的版本、ASUS Tinker也可以)與相關配件(micro SD卡與5V3A變壓器)
  • USB麥克風
  • 小喇叭
  • 5mmLED
  • SG90伺服機
  • 170孔麵包板
  • Raspberry Pi 攝影機(非必須)。

我們的TJBot的雷切圖檔與手臂的3D設計檔:http://www.thingiverse.com/thing:2191961

 

建議工具:

  • 寬度6mm雙面膠。
  • 直尺(金屬製為佳),協助折線用,不用太長。
  • 小隻的十字螺絲起子。
  • 美工刀。

注意事項:

  1. 手還是會弄的髒髒的:因為是雷切紙板,紙板的邊緣會有燒焦的痕跡,組裝時不可避免的會弄到手,愛乾淨的朋友可以帶個手套再來組。
  2. 組裝說明請多看幾次:雖然不是什麼很難的模型,在你動手前,還是請多多參考相關影片https://www.youtube.com/watch?v=bLt3Cf2Ui3o、https://youtu.be/MpL4BeQ3Nqc,或是其他人的組裝分享文(如本篇跟1.0 版之組裝教學),減少不必要的悲劇或是意外。
  3. 紙板折錯方向是會斷掉的:雖然本次的版本已經減少部分容易損壞的部分,部分固定方式改成以雙面膠固定。但雷切出來的折線,不適合反覆彎折,會 斷 掉!請先確定方向再折。若不幸真的斷了,不須覺得世界末日,拿膠帶來黏就好。如果不喜歡膠帶黏過的感覺,沒關係,我們很樂意再賣你一套材料包。
  4. 妥善運用直尺:金屬製15公分直尺會是你組裝的好幫手,除了可以幫你順利的折出完美的轉角,在榫接時也很好用。
  5. 不要硬拔:在取下零件時,請用美工刀將連接處劃開。
  6. 找一個小盒子,把小零件都先放在裡面。
  7. 建議先不要把雙面膠撕開,先確定各部分都在對的地方,確定無誤後,再黏起來。
  8. 注意方向:我是沒有發生啦,但有些朋友會把TJBot的手組到另一邊去。
  9. 錯了就錯了,斷了就斷了,不完美才是特色,最糟不過再來買一套。

這是基於本團隊組裝好幾台TJBot後的心得,在挫折與沮喪之中,跑到河邊看魚逆流而上,由衷讚嘆師父的偉大,有感而發,才開發出來的。

部分組裝方式跟之前的版本相同,如果在本篇看不清楚,可以參考上一篇(點閱數入手)-[TJBOT紙板機器人] 第一次製作機器人就上手-組裝篇

 

STEP 1  組裝底座

在寫有Fold Down的地方貼上雙面膠,正反面都要貼喔。

STEP 2  組裝頭部

方法同STEP 1。

STEP 3 組合下半身

STEP 4. 裝上Raspberry Pi攝影機(選配,但我裝了),沒要裝攝影機的朋友請看STEP 5

STEP 5 放入控制板

上次已經裝過Raspberry Pi,這次我們裝的是剛剛上市的ASUS Tinker,Tinker的外型跟Raspberry Pi完全相容,裝進TJBot完全沒問題。

 

STEP 6裝喇叭與麥克風

喇叭上的電源開關先撥到ON,否則裝好之後不太容易摸到電源開關。

PART 7 裝手臂

之前紙板的手臂不容易順利摺好,經過幾次不愉快的經驗之後,我們決定改用3D印表機製作。如果你想要自己印,歡迎使用我們的設計檔案。

伺服機先歸到中心點:先將伺服機轉到適當的位置,手臂朝上時是中點,往前後都各有90度的動作範圍。

PART 8 組裝固定板

黏上麵包板:我們有預留固定麵包板的位置,把麵包板背面的雙面膠撕開,對準刻痕,黏上去。

 

PART 9 把臉裝上去。

來個完成照!

裝飾一下你的TJBot。(下圖是我家公子們的真跡)

參考資料:

相關文章:

 

[課程紀錄]Arduino_AppInventor雙A計畫@高雄大港自造

作者/攝影 曾吉弘
課程時間  2017 3/18
課程講師 曾吉弘
課程場地  高雄大港自造

大港自造位於高雄西子灣駁二特區的自造空間,去年辦了大港自造節,開啟了不一定要掛 Maker Faire 牌的 Maker 活動,很多不一樣的發想就此展開。

言歸正傳,CAVEDU的專長是開課嘛,所以我們把招牌課程搬到大港囉。

我覺得Maker的能量就是從拿起工具的那一剎那開始,我真的覺得人人都會喜歡動手做些什麼,不管是鋼彈、小餅乾或是拿筆胡畫一通,總是對於指尖下的無限可能有著各類型的憧憬。

阿吉老師國高中就很喜歡工藝課,還記得當時要自己做一個書架,從切木板開始,到鑽孔、打磨拋光與上色都是新鮮的新鮮。為了讓木頭表面可以順利上漆,我還特別去五金行挑選各式各樣的砂紙,竟然發現了五金行老闆喜歡自己改造軍事模型–>因為工具應有盡有所以開五金行嗎?我不知道,但我看得出來他很快樂。自己做東西這件事也無所謂好不好,甚至”business model“(聽說大家最討厭被問到這句話,哈哈)。這個成品就代表了當下的自己,心境、技術等各方面的自己。

雖然說雙A計畫已經是老牌課程了,但是打底的工作還是很重要的。讓Android手機使用藍牙去與Arduino溝通之後,手機就能作為控制與顯示之用,Arduino也能藉由手機得到更多原本難以企及的功能,例如連接社群網路、拍照以及更好的計算能力等等。

來看上課照片(上課投影片於本文末)

 

 

小班教學,其實外面玻璃有很多有興趣的民眾在看呢

學員很認真地嘗試老師不同的題目

感謝大港的美麗攝影師把我拍得這麼滄桑…

最後來感受大港自造的熱鬧吧!

最後是本日上課投影片,歡迎多多分享喔


 

文章的結尾,來到了工商服務時間

未來Cavedu教育團隊也會不定期在大港自造舉辦課程~最近一期的課程在4/15的樹莓派課程喔!想要報名的朋友可直接在下方連結報名喔!

報名連結:http://www.accupass.com/event/register/1703240957416260981710

 

相關文章:

[技術教學分享] Processing、RaspberryPi 與 Arduino 於教學上的應用

本文要告訴您什麼是 Processing?為什麼要結合 Processing 與 Raspberry Pi?兩者可以做到那些事情?以及如何在 Raspberry Pi 上安裝 Processing 開發環境

作者/攝影  曾吉弘
時間  3小時
成本
難度  * *
材料表
  • 個人電腦 (作業系統可用 Windows, Mac OSX 與 Linux,本範例使用 Windows 7)
  • Raspberry Pi 3 單板電腦

Processing 與 Arduino 的淵源相當深,簡單來說 Arduino IDE 繼承了 Processing IDE 簡單易用,範例豐富等優點。CAVEDU 以往曾經開設過許多Processing 結合 Arduino、Kinect、openCV(以上 C3取2可以開三種課程呢!)的課程,也運用了 Processing 上的 Android mode 將 Processing 視為一種 Android 開發環境,總之就是有很多把戲可以變就對了啦!
安裝 Processing 非常簡單,只要到 Processing 官方網站按照您的作業系統下載對應的安裝黨就可以了。也請看看CAVEDU的相關 Pricessing教學文章

接著是本文的兩個重點:

為什麼要用 Processing 結合 Arduino呢?

Arduino沒有介面的概念,任何資料的呈現都只能透過 Serial Monitor,要實體顯示的話就接個 16 x 2  LCD模組(您該不會想要接七段顯示器吧…),再高級一點就是 OLED 模組囉,但不管怎樣都是要外接一個東西,且這個螢幕絕不會太大。如果可以在 Pi 上執行的話,1920 x 1080 Full HD 的螢幕、投影機(ASUS Tinker 可以支援 4K 顯示,好威啊!) 現在都不算太貴,可以作為中大型專題的視覺呈現方案。

為什麼麼 Rasberry pi 上可以執行 Processing 讓阿吉老師這麼感興趣呢?

先說結論:這樣就是一台可獨立執行的互動裝置了,以往要在 PC 端執行的事情,現在在 Pi 上就可以做到,程式碼還不用改,聽起來就很吸引人,不是嗎?

想一下這個情境:

執行在 Raspberry Pi 上的Processing 可透過 Serial port 去控制/讀取接在 USB port上 Arduino的狀態,藉此進行各種視覺化的呈現

 

  • 偵測到人臉,呼叫webcam 拍照
  • 觸碰螢幕上的m x n 的按鈕,點選之後去觸發 m x n 的 LED 矩陣(豪華一點就自己做燈磚)

一切都很美好,真的。原本一定要接一台電腦(桌上型很笨重不好攜帶,筆記型電腦又怕不見…) 才能做到的事情,只要一片 Pi 就搞定。別忘了,設定好 Pi 的遠端登入之後,您可以遠端桌面來控制Pi,這樣就可以省下一套鍵盤滑鼠與螢幕了。

Raspberry Pi 在上課時(尤其是第一堂課)難免會像這樣子弄得滿桌都是,老師們也要花相當大的功夫帶學生認識 Linux 的桌面系統與基礎的 command line 指令,但我想 Rpi 與許多周邊軟硬體的結合在教學上所呈現的豐富程度,是值得您這麼做的。

在Raspberry Pi 上安裝 Processing

請在您的 Raspberry Pi 終端機介面中輸入: (教學)
curl https://processing.org/download/install-arm.sh | sudo sh

安裝完畢之後就可以在選單的 Programming 下看到 Processing 了。點兩下開啟即可:

請由 File/Examples 中選一個喜歡的範例直接執行吧,這是 Input / Clock 範例

最後附上相當人氣的教學投影片: openCV 與 Raspberry Pi,歡迎您照著做做看喔!


 

相關文章:

[課程紀錄] CAVEDU的物聯網教學心路歷程

對於CAVEDU來說,將實用的科技以有趣的主題融入教學中一直是我們的核心價值,因此在辦理各式研習與講座中收集大家的意見與困難點就至關重要了。以下內容只代表CAVEDU這兩年多來在物聯網這個主題上的些許教學心得(可能還有一點機器人與Android app),如有偏頗還請大家不吝指正。

作者/攝影 曾吉弘
課程時間  8週 (週四 18:00-20:00)
課程講師 2015-持續努力中
課程場地 全台各地

概念很簡單:如果只是把感測器數值顯示在網頁上,這樣就真的無聊透了。相對地,如果Arduino這類型的入門 maker board 已經很普及的情況下,該如何改變學習這件事:讓小孩子覺得有趣,讓高中與大學生們學到真實可應用的第一線技術?

2015年11月2016年5月各舉辦了一場[物聯網教學應用發表會],邀請了許多朋友來參加,有趣的是在2015年參加以開發板製造商為主,到了2016年則以雲服務提供者為主。這與我們的想法相當接近,使用者對於物聯網的期待已從基礎的資料呈現與控制,進一步到希望有運算、智能服務以及串聯常用的網路服務等等。

針對物聯網教學這件事,我們大概歸納了幾個特性:

 

1. 重點在於網路品質:頻寬、連線數上的要求都會比傳統教室來得更高

  1. 以Raspberry Pi 或 7688課程來說,學員的電腦、開發板與手機都需要在同一個網段之下,這樣連線數就會是學員數的至少3倍。

2.網路端與開發板端的開發環境大不相同

  1. maker 開發板常見程式環境自然是以Arduino為主,網路端則五花八門,node.js、python或php都有。如果想要一個程式語言就打通關的話,可能會遇到某個感測器沒有python函式庫而無法讀取或是所有東西都用Arduino IDE硬幹而程式碼太長的狀況。

3.雲服務端常常改版,使用者只能被動接受

4.上課可能發生問題的地方更多,老師心臟要夠強

  1. 無法連上網路(帳號密碼錯誤)、無法連上server、意外斷線、腳位接錯、函式庫引用錯誤、呼叫次數太密集…  太多啦

5.承3.4.  教師需要花更多時間備課

而使用者對於雲服務的期待也大致整理如下:

1.免費,至少不要太貴

  1. 學校對於看不到的東西很難編列預算

2.希望可與熱門的網路服務結合,因此才會有像是IFTTTTemboo這類型的中介SDK provider 存在。

3.入門範例真的很重要,哪怕只是LED閃啊閃,對於很多人來說也是要花一段時間才能學會。

    1. 要用雲服務來進行LED hello world範例的話,代表您得做到這些事情:
      1. 讓開發板連上網路
      2. 讓開發板連上雲服務 (以上兩點需要使用者具備網路基本知識)
      3. 開發板可讀取來自雲服務的資訊
      4. 使用者可擴充,例如兩個控制頻道分別控制對應的腳位狀態,以及在雲服務上顯示開發板回傳的數值(數字、文字或布林)

真的不太簡單,對吧?

 

4.離線版或區域網路版

    1. local cloud 或 private cloud 對於網路品質不佳或是對於關注資料私密性的用戶來說相當重要,您可以參考QNAP與Arduino合作推出私有雲服務一文

對於學生來說,教學者得先建構一個情境來引起學生們的興趣,例如以下:

  • 可以自動發佈Facebook動態嗎?
  • 事件觸發後可以推播或寄郵件給我?
  • 可以結合 open data嗎?
  • 可以影音串流或影像辨識嗎?
  • 有圖形化介面可以用嗎?
  • 可以不用除錯嗎? <- 最好有這種事情

您可在App Inventor中文學習網上的範例教學頁面看到我們寫了許多讓app與各種網路服務結合,包含Goolgle map、Google 街景服務、微軟認知服務、LASS空汙地圖、政府提供的紫外線與空氣汙染open data等等。對於開發板的聯網應用,也從雲端控制家電、氣象站這類基礎應用,進一步到Facebook天氣播報機器人(IBM Bluemix + Facebook Messenger API)、7688聊天機器人(IBM Bluemix)以及串流影像中的臉孔與年齡辨識

針對大家又期待又怕受傷害的107課綱,由於[物聯網]已確定排入高職課程中,我們也接到許多學校詢問課程、師資與教室設備等等規劃上的問題,我們很樂意提供相關的建議喔!!

 

(展示用的物聯網屋,具備各種感測器、聯網開發板以及雲端控制介面)

不論是學校社團業界講師、公民營研習社群分享一般民眾課程,都很期待與您見面喔!

(2016公民營研習@彰化建國科大,彰師附工主辦)

(2016  Mobile Hero 通訊大賽物聯網教師研習研習@T客邦創客基地)

(2015 創客night分享 Raspberry Pi 影像辨識機器手臂@T客邦創客基地)

(一般民眾物聯網課程@T客邦創客基地)

 

有興趣的朋友可以參考阿吉老師在去年新北 mini Maker Faire 分享的內容:

[活動紀錄] 2016 新北Mini Maker Faire 物聯網好棒棒分享會

希望日後有機會再寫一篇關於程式教學的心得分享囉!!

[喜歡樹莓派的朋友看這裡] 開箱先,大尺寸電視的小電腦新選擇,ASUS Tinker Board

Raspberry Pi相當於明信片大小的小電腦主機,設計者一開始就完全開放它的相關技術,讓有興趣的使用者可以自由的設計這個主機,甚至可以買一些簡單的電子感應器,做一個小小的監控攝影機,諸如此類的構想都可以在Raspberry Pi上實現。今天要向各位介紹剛上市的新小電腦主機,ASUS開發的Tinker。

作者/攝影  豐智
官網

這次我們直接訪問ASUS,ASUS表示這次售價比他們的製造成本低,目的是希望能提供大家自由DIY的平台,這次他們把他們擁有的技術塞進這個小小的主機板,希望能讓我們享受DIY的樂趣,據說ASUS也將他們的資料完全開放,有最新的消息的話,我們會盡快跟進,今天我們先介紹Tinker的硬體部分。

 

Tinker外觀編排

Tinker的外觀基本上與Raspberry Pi相同,使用過Pi的人按照以前的習慣使用即可,Tinker的板子上印有藍色字體,告訴我們(1)相機、(2)螢幕、(3)Wi-Fi、(4)鍵盤滑鼠、(5)電子感測器接線位置(GPIO)、(6)4K影像輸出、(7)四個USB2.0接頭。

這次小編特別喜歡的是上方40個接線針腳,Tinker的針腳用紅色、黑色、綠色、藍色做區分,過去每次要為Raspberry Pi接電子感測器時總是要開圖表對針腳的位置,用顏色區分,小編感受到ASUS的小貼心。

支援4K影像輸出,可以試大尺吋電視機

這次Tinker最大的賣點是支援H.264/H.265、 4K、1080P高畫質的影像輸出,只要接上下方的HDMI接頭即可。Tinker推出的作業系統,內建XBMC基金會提供的KODI多媒體播放器,讓不熟Linux系統的人,能比較輕鬆的把Tinker接在自家的電視旁邊做一個播影片的平台。

3.5mm音訊孔一樣是一孔支援聲音撥放與讀取麥克風訊號兩個功能,音樂檔案的解析度可以支援到192K/24bit,相較一般常用高音質音樂(96K/24bit)應該是蠻夠用的。

先來比一比,Tinker與Raspberry Pi

最後附上表格RPi與Tinker的規格對照表,有興趣的朋友們可以繼續關注這個開發板的最新資訊。

名稱Raspberry Pi 3ASUS Tinker
預設的Linux作業系統Raspbian  (以Debian為基礎)TinkerOS (以Debian為基礎)
是否支援Arduino支援支援
支援最高影像解碼畫質 [Video]H.264H.264、H.265
聲音格式 [Radio]最高解析度96K/24bit最高解析度192K/24bit
藍牙功能內建支援藍牙4.0內建支援藍牙4.0
SoC博通BCM2387瑞芯RK3288
處理器 [CPU]四核心64位元ARM Cortex A53處理器,時脈1.2 GHz四核心ARM Cortex-A17 處理器,時脈1.8GHz
記憶體 [RAM]LPDDR2、1GBLPDDR3、 2GB
繪圖晶片 [GPU]Broadcom VideoCore IVARM Mali-T764
相機連接功能支援支援
顯示器連接功能支援支援
USBUSB2.0x4USB2.0x4

[新譯書]MAKE:3D列印專題:玩具、機器人、工具自己印

MAKE:3D列印專題:玩具、機器人、工具自己印

3D Printing Projects: Toys, Bots, Tools, and Vehicles To Print Yourself

這本書在翻譯的時候就很喜歡,最喜歡的是泡泡槍與花卉照顧機器人。買一本來做做看吧!別忘了需要3D列印服務可以找我們喔:

3D設計與列印服務,歡迎洽詢


內容簡介

一本告訴您3D列印機有多好用的書

即便您從未接觸過3D列印機,透過本書,也能幫助您認識這項新世代的科技產物,讓您學到更多技能,還能喚醒您心中對於創造力的鼓動。每一個專案都會運用電路、手工組裝技巧、親手設計的3D列印零件以及軟體的獨特組合,同時還會教您如何思考與實現您腦中的好點子。

本書由Printrbot公司創辦人及其員工與資深DIY作家共同撰寫,書中的專題,都是以便宜且容易取得的電子零件以及Arduino、Raspberry Pi這類的開發板構成,充分展現了3D列印在高度自製化與各種突破極限的專案上的廣泛應用。

  透過本書,您可以:
.列印並組裝出一座非常適合初學者的模組化檯燈—然後您可以在這個3D列印的結構體中加入各種電路實現更多功能
.製作出一台真的能動的三輪賽車,藉此學到關於遙控車的相關知識
.改造雷射筆,實現更多酷炫花俏的功能
.動手製作/改裝維修一把電動螺絲起子,學到如何拆解並重組您手邊的工具
.親手製作一對栩栩如生的機械眼球,並從動手做中學習電子動畫技術
.打造一台可以具備影像串流功能,可以從手機進行遙控操作的Raspberry Pi機器人
.組裝並改造出像是吹泡泡機器人、能幫您照料花卉的自動機器
.自製一個電子自穩雲台,幫助您拍攝穩定清晰的影片

有了自製的3D列印零件與電路,什麼事情都有可能!


目錄

第一單元:3D 檯燈
第二單元:50 年代雷射槍筆
第三單元:二軸萬向攝影機
第四單元:泡泡槍機器人
第五單元:D 槽充電螺絲起子
第六單元:機器眼
第七單元:倒三輪賽車
第八單元:單軌攝影機
第九單元:Chauncey 花卉照護機器人
附錄:安裝 Arduino 函式庫

作者: Brook Drumm等
譯者:CAVEDU阿吉老師
出版社:歐萊禮  訂閱出版社新書快訊 新功能介紹
出版日期:2016/11/24
語言:繁體中文

定價:480元

a479a

研揚科技 Upboard,可執行 Windows 10 的工業電腦等級 Raspberry Pi 相容板

本文將介紹研揚科技 Upboard這塊工業電腦等級的單板電腦,目前也有 Upboard 黑客松競賽(上週已報名截止),歡迎大家多多關注本土廠商對這個領域的持續投入,也感謝研陽科技大力支持本次新北Maker Faire。後續會陸續介紹如何安裝 Windows 10 與相關小型專題。

img20161107151755

日前研揚也推出了 UP2(Squared) 進行 Kickstarter 募資詳細規格請點我

up2-front

除了基本要有的 Linux系統(推薦使用Ubilinux,葉難教學)、Android 與相容 Rasbperry Pi(基本的啊)之外,我想有幾個重要的觀點值得大家參考:

  1. Upboard是以工業電腦的角度來設計,因此在穩定、耐久以及極端情況下都會比同級的板子來的穩定(回想一下Pi2 的閃光燈重開機問題
  2. Windows 10 開機。Rpi 的使用者需要花一點時間才能進入 Linux terminal 指令。如果直接從 Windows 開始的話,對於很多使用者來說是很安心的。
  3. 套件包 ready:可直接使用Grove pi(Seeed又出現了),也可搭配Intel 的Realsense搭配出售,對於機器視覺(且買不到 Windows 版 Kinect 的朋友)的朋友是一大福音喔!
  4. 擴充板相容於 Raspberry Pi,所以要做機器人的朋友可以快樂地購買馬達擴充板來使用。

Continue reading

LattePanda 開機步驟與連接螢幕

看了這麼多 Lattepanda 開箱文與規格介紹之後,開機來玩玩看吧

作者:CAVEDU 2016 實習生歐新暘

本次開箱用到的東西: 電腦、LattePanda 開發板本體、IPS Display、Touch Panel、USB線。請注意 Lattepanda 所附的 IPS 螢幕無觸碰功能,需要另外裝一層 touch panel.

pic01

壹.開機

1. 使用USB線,讓電腦提供LattePanda電源。(也可使用轉接頭接插座)

02

 

2. 待LattePanda藍光消失,按下電源鍵一秒,就完成開機啦! 

03

 

3. 完成開機紅光會亮起。

04

貳.連接IPS Display和Touch Panel

注意: 請在LattePanda開機之前連接好

1.把致動器(actuator)豎起來。

05

2.把柔性電路板(FPC)插進去。 注意插入方向正確與否

正確方向圖

06

3.壓下制動器,完成連接。

07

4.IPS Display和Touch Panel連接方式一樣,完成就可以來測試LattePanda的內建Win10了。

08

 

參.LattePanda系統

LattePanda是個小電腦,連接Wifi、上網玩小遊戲、開多個桌面(Win10功能)都沒有問題,也有內建小畫家、3D Builder、Arduino(版本1.0.6),

還可透過虛擬鍵盤來輸入,最大特點是支援多點觸控,不必滑鼠也可以操作,如果用不慣還是可以外接一個滑鼠。(長按螢幕直到出現正方形方塊放掉,為右鍵點法)

不過也是有個小問題,點選Wifi連線時,Wifi圖示和文字有點被吃掉了,這個透過螢幕往上滑,就可以看到了,

但在安裝Visual Studio的時候,安裝按鈕被擋住了,沒辦法安裝,這時候需要把工具列隱藏才能安裝。

在工具列上長按(直到出現正方形放掉)點properties,在Taskbar 打勾 Auto-hide the taskbar就可以安裝了。

09

10

參考資料: http://www.lattepanda.com/docs/