各顔パーツのランドマーク座標を取得し、距離を計算することによって顔の向きを上下左右4方向特定することができた。また、検出したむきにあわせてカーソルの移動を行うプログラムを実装した。ただし動きがぎこちなく操作にストレスがかかる状態。
両目を1秒間閉じると音声とともに左クリックするプログラムを実装中。
口の開閉認識もできるため、スクロールを行う際にモード変更ができるように改良する。
12月から被験者を募って実験が開始できるように操作のストレスがなくなる工夫を考えて付け加える。
両目を1秒間閉じるとクリックする関数がうまくいきません
def blink_counter(ear):
CLOSE_COUNTER = 0
BLINK_COUNTER = 0
while ear < 0.20:
CLOSE_COUNTER +=1
if CLOSE_COUNTER > … Continue Reading ››
出席:全員
中尾:OpenCV とDlibを組み合わせて、顔の向きを検出できた。画像サイズが大きすぎたようで、小さいサイズで試す。
仮屋:GPの参考書を読む、論文を読む。知識を深める。
赤瀬:修論作成中。
藤島: EDGETPUで検出スピードを確認する。
透明なアクリル板上に偏光板でQRを作成。
日中の曇りで撮った動画では読み取り可能であったが、日光の影響のある環境でも検証をしたい。
来週の予定:光の反射や入射の影響や対策の処理を考察する。
・前照灯をつけた状態とつけていない状況で5~20mで距離を変えて動画と写真を撮影。
・RaspberryPiではYOLO3が動かなかったので、精度は落ちるが軽くて高速なTiny-YOLO3を実装し、動かした。しかし1~2fps。
・現在、EDGE TPUを試している。
進捗
- 【研究】修士論文の「研究背景」を作成した.
- 【YOODS】12月18日~12月21日に東京で開催される国際ロボット展に出展するロボットの動作確認(キャリブレーション・Visual Teaching)をした.
- 【就活】富士通のスキル確認面談に参加した.画像処理×AIの技術を扱う開発部に誘われたが,そこに入るかは未定.11月29日に行われる配属面談までに結論を出す.
次週の予定
- 【研究】修士論文の「研究の目的・原理」を作成する.
- 【YOODS】ハンドスピナーとベアリングを組み立てる動作を完成させる.
RaspberryPiにDlibを実装。リアルタイム検出は処理が重くて動作しなかった。調べた結果、Dlibの顔検出が原因で処理が重くなっていた。顔検出をOpenCVで行うことでリアルタイム検出を可能にした。
参考にしていたサイトの視線検出も実装済み。
視線検出の精度の測定と顔の向きを考慮した視線方向の算出を行っていく。また他の視線検出法で良いのがあればそちらも実装していきたい。
Stay Hungry, Stay Foolish!