2013/03/30

Raspberry Pi でOpenCVのサンプルを動かす(カメラと顔認識)

 前回でRaspberryPiへのOpenCVのインストールができたわけですが,Pythonのサンプルプログラムの動作にちょっと手こずったので紹介します。
 OpenCVのソースをダウンロードすると,samplesフォルダ以下に各言語のサンプルが入ってるのですが,今回試したのは『camera.py』(Webカメラの画像表示)と『facedetect.py』(Webカメラによる顔認識)です。

pythonの顔認識サンプルプログラム

 まず『camera.py』から。USBにWebカメラを繋いで,samples/python/に移動してから./camera.pyで実行できます。…が,そのまま実行しても,『select timeout』とメッセージが出て画像が表示されません。どうやら,カメラからの画像取得に時間がかかっていることが問題のようです。(Webカメラをluvcviewで動かした際も,160x120でなければスムーズに表示できなかったので)『camera.py』にちょっと追記して,画像サイズを160x120に指定すると無事動作してくれました:)

画像サイズを指定したcamera.py
#!/usr/bin/python

import cv2.cv as cv
import time

cv.NamedWindow("camera", 1)

capture = cv.CaptureFromCAM(0)

# 画像サイズの指定
cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_WIDTH,160)
cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_HEIGHT,120)

while True:
    img = cv.QueryFrame(capture)
    cv.ShowImage("camera", img)
    if cv.WaitKey(10) > 0:
        break
cv.DestroyAllWindows()

 続いて,『facedetect.py』です。これも,画像サイズを指定すれば動いてくれます。また,デフォルトでロードされるxmlファイルのパスを変えておくとよいかもです。./facedetect.py 0(末尾の数字はカメラのID)で実行できます。

変更後のfacedetect.py
#!/usr/bin/python
#!/usr/bin/python
"""
This program is demonstration for face and object detection using haar-like features.
The program finds faces in a camera image or video stream and displays a red box around them.
 
Original C implementation by:  ?
Python implementation by: Roman Stanchak, James Bowman
"""
import sys
import cv2.cv as cv
from optparse import OptionParser
 
# Parameters for haar detection
# From the API:
# The default parameters (scale_factor=2, min_neighbors=3, flags=0) are tuned
# for accurate yet slow object detection. For a faster operation on real video
# images the settings are:
# scale_factor=1.2, min_neighbors=2, flags=CV_HAAR_DO_CANNY_PRUNING,
# min_size=<minimum possible face size
 
min_size = (20, 20)
image_scale = 2
haar_scale = 1.2
min_neighbors = 2
haar_flags = 0
 
def detect_and_draw(img, cascade):
    # allocate temporary images
    gray = cv.CreateImage((img.width,img.height), 8, 1)
    small_img = cv.CreateImage((cv.Round(img.width / image_scale),
                   cv.Round (img.height / image_scale)), 8, 1)
 
    # convert color input image to grayscale
    cv.CvtColor(img, gray, cv.CV_BGR2GRAY)
 
    # scale input image for faster processing
    cv.Resize(gray, small_img, cv.CV_INTER_LINEAR)
 
    cv.EqualizeHist(small_img, small_img)
 
    if(cascade):
        t = cv.GetTickCount()
        faces = cv.HaarDetectObjects(small_img, cascade, cv.CreateMemStorage(0),
                                     haar_scale, min_neighbors, haar_flags, min_size)
        t = cv.GetTickCount() - t
        print "detection time = %gms" % (t/(cv.GetTickFrequency()*1000.))
        if faces:
            for ((x, y, w, h), n) in faces:
                # the input to cv.HaarDetectObjects was resized, so scale the
                # bounding box of each face and convert it to two CvPoints
                pt1 = (int(x * image_scale), int(y * image_scale))
                pt2 = (int((x + w) * image_scale), int((y + h) * image_scale))
                cv.Rectangle(img, pt1, pt2, cv.RGB(255, 0, 0), 3, 8, 0)
 
    cv.ShowImage("result", img)
 
if __name__ == '__main__':
 
    parser = OptionParser(usage = "usage: %prog [options] [filename|camera_index]")
    # xmlファイルのパスを絶対パスにしておく
    parser.add_option("-c", "--cascade", action="store", dest="cascade", type="str", help="Haar cascade file, default %default", default = "/home/pi/OpenCV-2.4.4/data/haarcascades/haarcascade_frontalface_alt.xml")
    (options, args) = parser.parse_args()
 
    cascade = cv.Load(options.cascade)
 
    if len(args) != 1:
        parser.print_help()
        sys.exit(1)
 
    input_name = args[0]
    if input_name.isdigit():
        capture = cv.CreateCameraCapture(int(input_name))
    else:
        capture = None
 
    # 画像サイズの指定
    cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_WIDTH,160)
    cv.SetCaptureProperty(capture,cv.CV_CAP_PROP_FRAME_HEIGHT,120)
 
    cv.NamedWindow("result", 1)
 
    if capture:
        frame_copy = None
        while True:
            frame = cv.QueryFrame(capture)
            if not frame:
                cv.WaitKey(0)
                break
            if not frame_copy:
                frame_copy = cv.CreateImage((frame.width,frame.height),
                                            cv.IPL_DEPTH_8U, frame.nChannels)
            if frame.origin == cv.IPL_ORIGIN_TL:
                cv.Copy(frame, frame_copy)
            else:
                cv.Flip(frame, frame_copy, 0)
 
            detect_and_draw(frame_copy, cascade)
 
            if cv.WaitKey(10) >= 0:
                break
    else:
        image = cv.LoadImage(input_name, 1)
        detect_and_draw(image, cascade)
        cv.WaitKey(0)
 
    cv.DestroyWindow("result")

 上記サンプルの実行結果が,冒頭の画像のようになるわけです。
 今回,pythonという言語を初めて動かしてみましたが,カメラのサンプルを動かしても割とスムーズな印象でした。インタプリタなのでコンパイルも不要ですし,しばらく使ってみようと思います。

0 件のコメント:

コメントを投稿