「ロボット・電子工作・マイコン」カテゴリーアーカイブ

全方位カメラ(その2)

前回はUSBカメラにロジクールC905を使用しました。このカメラにはオートフォーカス機能が付いているのですが、Windowsではオートフォーカスが効きますが、Raspberry Pi(raspbian)ではオートフォーカス機能が効かずピントが合いませんでした。どうも、カメラからステンレス半球までの距離(約5cm)でピントが合わないといけないようです。反射率の高い鏡ならカメラから鏡までの距離と鏡から対象までの距離でピントが合えばよいようなのですが、ステンレス半球の反射率が低いせいかもしれないと想像しています。実はRaspberry Piの専用カメラでも試してみたのですが、固定フォーカス(焦点距離:1 m から無限遠)のため、やはりピントが合いませんでした。

今回、フォーカスを手動で調整できるELECOM UCAM-DLA200HBK (現時点:¥1,445)を購入して試してみました。

全方位カメラ

結果、WindowsだけでなくRaspberry Pi(raspbian)でもうまくピントが合いました!
画質などカメラとしての性能はロジクールC905の方が上ですが、Raspberry Piで動かしたいので、このカメラを使って画像認識などしてみたいと思います。

LPC1114FN28でmbed

ARMベースの32bitマイコンLPC1114FN28で、mbedの開発環境が使えるようになったとのことで試してみました。
詳細は「Getting started with mbed LPC1114」にて。

作成したプログラムの書き込み方法は上記サイトにも記載されている通りいくつかありますが、手順が簡単ということで、mbed経由でLPC1114FN28へ書き込む「イカ醤油ポッポ焼き」を使用してみました。

mbedでプロジェクトを作成した時にサンプルとして書かれているLチカプログラムをそのままコンパイルして書き込んでみました。
最初、mbed compilerの右上に表示されているプラットフォームがmbed LPC1768のままになっており、書き込みはできるものの動かなかったのですが、プラットフォームをLPC1114FN28に変更したら、動くようになりました。
LPC1114FN28
手前がLPC1114FN28で、奥が書き込みに使用したmbed LPC1768です。

mbed LPC1768とはピン数も異なりますし、いろいろ制約はあるようですが、これは簡単便利です。
LPC1114FN28はトランジスタ技術の2012年10月号に付録になったことで一時期話題になりました。DIPパッケージなので、ブレッドボードや電子工作で気軽に使用できます。2013年9月現在、秋月電子にて¥110で販売されており、コストパフォーマンスが抜群に良いので、注目していましたが、開発環境の敷居が高く、なかなか手を出せないでいました。mbedの開発環境が使えるようになったことでその問題もクリアし、すばらしく使えるマイコンに昇格したと思います。自分の中ではこれまでArduinoでやっていたことは今後はLPC1114FN28を使うことになりそうです。

[Raspberry Pi] OpenCVの導入とインターバル撮影

Raspberry PiにOpenCV-2.4.4aを導入しました。
OpenCVはapt-getで導入できるパッケージ版もあるようですが、現在のところバージョンが少し古いようです。
BeagleBoard+Ubuntu+ロジクール C905での経験ですが、古いバージョン(2.3ぐらい)のOpenCVでは数秒の遅延が発生する事象がありましたので、今回は最新のバージョンをソースから導入しました。
以下、導入手順です。

# apt-get -y install build-essential cmake cmake-qt-gui pkg-config libpng12-0 libpng12-dev libpng++-dev libpng3 libpnglite-dev zlib1g-dbg zlib1g zlib1g-dev pngtools libtiff4-dev libtiff4 libtiffxx0c2 libtiff-tools
# apt-get -y install libjpeg8 libjpeg8-dev libjpeg8-dbg libjpeg-progs ffmpeg libavcodec-dev libavcodec53 libavformat53 libavformat-dev libgstreamer0.10-0-dbg libgstreamer0.10-0 libgstreamer0.10-dev libxine1-ffmpeg libxine-dev libxine1-bin libunicap2 libunicap2-dev libdc1394-22-dev libdc1394-22 libdc1394-utils swig libv4l-0 libv4l-dev python-numpy libpython2.6 python-dev python2.6-dev libgtk2.0-dev pkg-config
# apt-get install libswscale-dev
# wget http://sourceforge.net/projects/opencvlibrary/files/opencv-unix/2.4.4/OpenCV-2.4.4a.tar.bz2
# tar -xvjpf OpenCV-2.4.4a.tar.bz2
# cd opencv-2.4.4/
# mkdir build
# cd build
# cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D BUILD_NEW_PYTHON_SUPPORT=ON -D BUILD_EXAMPLES=ON ..
# make
# make install
# ldconfig

900MHzにクロックアップした状態で、6.5時間かかりました。(私の外出中にPi君が頑張ってビルドしてくれました)
OpenCVを使ったカメラのテストとして、インターバルカメラのプログラムを作成してみました。
カメラの画像を15秒ごとにJPEGで保存するものです。
また、一連のJPEGファイルをFFMPEGで動画に変換するシェルスクリプトも紹介します。
以下はプログラムです。(camera_test.c)

#include <stdio.h>
#include <cv.h>
#include <highgui.h>
#include <ctype.h>
int main (int argc, char **argv)
{
IplImage *frame = 0;
double w = 320, h = 240;
CvCapture *capture = cvCreateCameraCapture(-1);
if (capture==NULL) {
printf("Camera not found.\n");
return 0;
}
cvSetCaptureProperty (capture, CV_CAP_PROP_FRAME_WIDTH, w);
cvSetCaptureProperty (capture, CV_CAP_PROP_FRAME_HEIGHT, h);
// カメラから画像をキャプチャする
int num = 0;
char fname[1024];
while (1) {
frame = cvQueryFrame(capture);
// ファイル名
sprintf(fname, "cap%06d.jpg", num);
printf("%s\n", fname);
// ファイルに保存する
cvSaveImage(fname, frame, NULL);
sleep(15);
num++;
}
cvReleaseCapture (&capture);
return 0;
}

プログラムのコンパイル手順です。

% gcc -o camera_test camera_test.c -I/usr/local/include/opencv -lpthread -ldl -lopencv_core -lopencv_imgproc -lopencv_highgui -lopencv_ml -lopencv_video -lopencv_features2d -lopencv_calib3d -lopencv_objdetect -lopencv_contrib -lopencv_legacy -lopencv_flann

以下のように実行すると、15秒毎にカメラ画像がJPEGに保存されます。

% ./camera_test

撮影間隔を変える場合はプログラムを修正するなり、引数で渡すように改造するなりしてください。
以下のスクリプトで、連続したJPEGファイルをFFMPEGでMJPEG動画に変換後、MP4動画に変換できます。(make_mov.sh)

#!/bin/sh
rm -f out.avi
ffmpeg -r 24 -i ./cap%06d.jpg -vcodec mjpeg -sameq out.avi
rm -f out.mp4
ffmpeg -i out.avi -vcodec libx264 -f mp4 out.mp4

以下のように実行します。

% ./make_mov.sh

家から見える風景を朝から夜まで撮影してみました。

Raspberry Pi とWEBカメラでインターバル撮影

このプログラムではJPEGファイルや動画ファイルをSDカード上に作成するので、常用するとSDカードの寿命が短くなる恐れがあります。常用する場合にはRAMディスクやNASに記録したりする工夫が必要だと思います。
画像に大きな変化があったら、しばらく短い周期で撮影したり、画像をメールで携帯に送信したりするなどの機能を盛り込めばセキュリティカメラになりますね。

[Raspberry Pi] USBカメラのテスト

今回はUSBカメラを接続して、動作の確認を行います。
USBカメラにはBeagleBoard-xMでも使用していた、ロジクール C905を使用します。なお、USBカメラは電力消費が激しいので、セルフパワーのUSB HUBが必須です。
カメラ接続

まずは以下のコマンドでカメラが認識されていることを確認します。最終行に接続したカメラが認識されています。

root@raspberrypi:~# lsusb
Bus 001 Device 002: ID 0424:9512 Standard Microsystems Corp.
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 001 Device 003: ID 0424:ec00 Standard Microsystems Corp.
Bus 001 Device 004: ID 05e3:0608 Genesys Logic, Inc. USB-2.0 4-Port HUB
Bus 001 Device 005: ID 2019:ed17 PLANEX GW-USValue-EZ 802.11n Wireless Adapter [Realtek RTL8188CUS]
Bus 001 Device 006: ID 046d:080a Logitech, Inc. Portable Webcam C905

カメラの表示テストに使用する、luvcviewをインストールします。

# apt-get install luvcview

早速カメラの表示に移りたいところですが、私の環境ではモニタを接続していないため、PCからVNCで接続するために、tightvncserverをインストールします。

# apt-get install tightvncserver
# tightvncserver

PCから、vncviewerで接続します。
端末エミュレーターを開き、以下のように起動します。

# luvcview

以下のように問題なく表示されました。VNC経由のせいもあると思いますが、3fps程度と少し遅いため、表示はカクカクしています。
カメラテスト

表示速度を上げるために、キャプチャサイズを小さくしてみます。以下のオプションで、8fps程度に上がりました。

# luvcview -s 320x240

Raspberry Piにはカメラ用のインタフェースが搭載されており、先日、Raspberry Pi専用のカメラモジュールがリリースされました。
http://www.raspberrypi.org/archives/3432
値段がどのぐらいになるか不明ですが、USBカメラのような遅延がなく、FPSも高く動かせれば、ロボットなどの画像認識用途には嬉しいですね。
次回はOpenCVのインストールを行ってみます。