B4ゼミ

白土:WebRTCでウェブカメラからの動画をプレビューし、画面に表示までできた、次は取得した画像をハードディスクに保存。 金當:前景の止まれマークと背景の画像の合成によるポジティブ画像の作成に不備があり、学習データを作り直して、再度学習する。 井上:機械学習を用いる際の学習データの作成にはOpenCVのCreateSamplesでは、サンプルの質がよくないことから、サンプル作成ツールを新たに開発する。 梶岡:リアルタイム脈波の拾得ができ、これからUSBカメラのフレームレートを固定にする方法を検討する。 庄司:TensorFlowとImageNetを使い、クラス分けの実験を行ったが、入力がモノクロにした為、認識率がよくない、カラー画像で再度学習を行う。

研究進捗(梶岡)

〇今週の進捗 ・緑の画素値を読み取るフレームの大きさを縮小ではなく中心付近を80×80で切り取って読み取るように変更した。 ・ウェブ上のプログラムを参考にローパスフィルタを作成しノイズ除去した結果、前回よりは精度が増したように感じる。 ・波形をリアルタイムで取得することに成功した。 ・ノートパソコンでは精度が悪く、iphoneのカメラも使用できるようにした。 〇課題 or 疑問点 ・脈拍数を取得するためにグラフからピーク値を検出しないといけない。 ・波形取得の精度が悪い。 ・顔認証のプログラムを作成し、頬を切り取り脈拍波形の取得を試みたが失敗した。

研究の進捗(仮屋)

Androidスマートフォン上で輪郭領域内をタップすると射影変換画像を表示するアプリケーションを実装した。(画像一枚目は輪郭描画、二枚目は射影変換後の画像)動作するがやや不安定。現段階では輪郭領域内のタップ判定にopencvのpointPolygonTestという関数を用いているが、今週は輪郭内領域判定を行う関数を自作し動作させる予定。

M2ゼミ

後藤:指の学習を完成し、タッチパーネルに適用した際に人によってパフォーマンスが異なる問題が発生、指の教習ファイルを一度ガウシアンフィルターをかけ、再度学習してみる。 篠崎:顔登録時の自動調整が完了し、ラズベリーパイの実装に移る。まずは、PC版をそのまま移行し、動作確認してから、GPIOを使った割り込みを行う。 菊田:データの埋め込み起点をフローティング方式に変更、作業中である。 新藤:ROSから魚眼レンズカメラのデータがOpenCVに渡せないため、今までの作業手順をドキュメントにまとめて、投稿する。