今週の進捗(水戸)

各顔パーツのランドマーク座標を取得し、距離を計算することによって顔の向きを上下左右4方向特定することができた。また、検出したむきにあわせてカーソルの移動を行うプログラムを実装した。ただし動きがぎこちなく操作にストレスがかかる状態。

両目を1秒間閉じると音声とともに左クリックするプログラムを実装中。

口の開閉認識もできるため、スクロールを行う際にモード変更ができるように改良する。

12月から被験者を募って実験が開始できるように操作のストレスがなくなる工夫を考えて付け加える。

両目を1秒間閉じるとクリックする関数がうまくいきません

def blink_counter(ear):
CLOSE_COUNTER = 0
BLINK_COUNTER = 0

while ear < 0.20:
CLOSE_COUNTER +=1
if CLOSE_COUNTER > … Continue Reading ››

今週の進捗(赤瀬)

進捗

  • 【研究】修士論文の「研究背景」を作成した.
  • 【YOODS】12月18日~12月21日に東京で開催される国際ロボット展に出展するロボットの動作確認(キャリブレーション・Visual Teaching)をした.
  • 【就活】富士通のスキル確認面談に参加した.画像処理×AIの技術を扱う開発部に誘われたが,そこに入るかは未定.11月29日に行われる配属面談までに結論を出す.

次週の予定

  • 【研究】修士論文の「研究の目的・原理」を作成する.
  • 【YOODS】ハンドスピナーとベアリングを組み立てる動作を完成させる.

今週の進捗(中尾)

RaspberryPiにDlibを実装。リアルタイム検出は処理が重くて動作しなかった。調べた結果、Dlibの顔検出が原因で処理が重くなっていた。顔検出をOpenCVで行うことでリアルタイム検出を可能にした。

参考にしていたサイトの視線検出も実装済み。

視線検出の精度の測定と顔の向きを考慮した視線方向の算出を行っていく。また他の視線検出法で良いのがあればそちらも実装していきたい。