力峰 張 のすべての投稿

画像処理藩主

B4ゼミ

金當:車内からスマホで動画を撮影し、撮影機器ホルダーの一部が映るため、オプティカルフローがうまく作動しなかった。設置に工夫して、もう一度実験を行う。標識検出と動きの判断を同時に画面に出るようにしましょう。

井上:https://szlab.org/szlab/archives/11148/ 通り進捗報告、新しい装置に応じた学習環境、学習ファイルの作成を見直す。実験は客観的数値精度、使用者の主観心理評価を行う。テスト項目表を作成し、テストを行う。

庄司:複数対象物が映る画像を取り除いた状態で、認識精度を評価した。9割台でした。これから卒論を構成する。

梶岡:https://szlab.org/szlab/archives/11143/ 通り進捗報告、被験体は多少動いた状態での脈測定実験を行って見る。

白土:顔認証を用いらWebサービス認証の実装が完成。現在DCT符号の選択による認証精度の評価を行なっている。

M2ゼミ

篠崎:実証実験向けの設置方法を検討し、機材部材をあつめ、冷蔵庫に固定する。画面はリモートで実行可能かを検討する。

後藤:複数名の人の指データから学習ファイルを作成した。検出精度、タッチ精度を測る。

菊田:前日発表の際のOTPを取り出す際に画像の到着時間を使用するのは取りやめ、他の方法で識別情報を送る。やりとりのロジックはこれから設計する。

新藤:circle.cpp のプログラムを見直し、ラズベリーパイで画像の取得のみに使用、他の作業はPCに移行する。実験用動画像データを取得する。

B4ゼミ

白土:DCT変換が完了した。データのソティングがcolletcion->SortByDesc()で行っているが、結果の確認ができていない。ソートした結果をColloectionから取り出して、降順になっているかを確認する。 失敗した場合、聯想配列のArrayでソートする。

庄司:グッピーの学習を32x32サイズでは90%の識別精度があった。複数対象物が映る場合の識別は不備(異なる検出箇所)がありそうで、原因を調べる。

梶岡:顔検出を実装した。顔の特定箇所を自動的に切り出して、脈を検出する。脈抽出箇所をいくつかの候補を選定し、抽出する箇所を決定する。

井上:https://szlab.org/szlab/archives/11100/ 投稿通り進捗が確認。卒論の到達目標は自分で一回判断し、論文の骨組みを建てる。

金當:オプティカルフローが実装した、特徴点が短時間内での移動距離から、車の停止状態を検出する。

B4ゼミ

庄司:学習データの増やし方に問題がありそうなので、任意サイズの正方化の際にできる空の領域を0で埋めるのではなく、元画像をカンマ変換、照明付加、帯域的に輝度バランス調整などして、サンプル数を増やす。増やしたサンプルが変形せず、そのまま既成の学習フレームワークに入力する.

白土:ブラウザで顔写真の取得ができる、これからDCT変換を作成する。

梶岡:顔から脈抽出が実現、グラフの表示方法を変更と抽出しやす箇所の自動判断を行う。

井上:カメラを使った指位置検出によって、画面中心点からのズレと向きを計算し、コンピュータのマウスと同等な機能を実現、福祉方面での応用を提案し、卒論を作成。

金當:止まれの標識を大まかな検出に成功、止まれマークの直前の車が一時停止したかの判定プログラムを作成する。オプティカルフローを試す。

M2ゼミ

菊田:クライアントとサーバー側を意識し、送受信時に情報を傍受されても安全性が確保できるロジックを作成する。

後藤:指先検出学習ファイルの改良? 他人を使った実験を行う。

篠崎:加速度センサーによるドア開閉の判断プログラムを作成し、結合テストを行う。

新藤:OpenCVではraspicamが現バージョンではつかえないようで、Pythonでシステムコマンドを呼び出して、RaspiCameraから写真を取得、YOLOに検出を行う。台車を使って、情景写真を配置して、タイムラプス撮影を行う。

M1ゼミ

仮屋:Androidアプリ、OpenCV NAtive 関数を使う予定。JNIファンクションを試す、画面座標値をOpenCVの関数に渡す。

中尾:カーナビの機能を調べ、Yahooナビアプリが道路標識情報を表示、普通のカーナビもスピード制限、止まれなどの案内を行うものがある。とりあえず、iPhoneでリアルタイム撮影から・止まれ 標識を識別する アプリを作成。

藤島:Fax PDF伝票の文字取得アプリ開発に入る、来週目標、撮影画像を射影変換で正立画像にする。

 

B4ゼミ

白土:https://szlab.org/szlab/archives/10937/ に記載通りに進捗、今後DCT変換の部分を実装する。

PS:現在はJAVAスクリプトにてサーバー側処理しているのですが、将来はJAVAアプレットで必要な部分をクライアント側で処理を行う。

金當:ガスケットファイル作成が上手くいかなかった、実際の止まれの標識をビデオで取得し、画像に変換したのち、切り出しを行い、学習データを作成する。

井上:https://szlab.org/szlab/archives/10935/ に記載通りの進捗、テーマ変更に伴い研究背景とカメラを使うメリットを明確にする。

庄司:ImageNetにあるグーピーの画像を使用し、他の魚種と区別する学習を行い、過学習を発生し、教習画像を増やすことで過学習を回避、今後識別精度の確認と原因を解析。

梶岡:バンドパースフィルターが機能しているが、距離が離れる顔から取得した脈による色の変化は顕著ではない。先行研究の再現を行い、効果を確認し、原因を解析する。

M2ゼミ

後藤:前回予定通りに制度実験を進行中、今後他人の指をつかった実験の精度を計測する。修論の作成に手掛ける。

篠崎:Raspberry PI とArudinoのGPIOの入力レベルを確認し、これから、結合テストを行い、割り込みが正常に動くかを確認する。

菊田:LaravelにJavaScriptを組み込む作業を実施中。登録及び認証に関するサーバークライアント側のデータのやりとりのロジック図を作成する。

新藤:下記リンクに示しているtinyyolov2の再現を行い、識別プログラムにパノラマ写真を入れる。 Rosシステムを削除か悪い影響を取り除く。一週間以内で動作させることを目標とする。

M1ゼミ

仮屋:android端末での開発を継続、プレビュー画像ではなく、実際の画像を認識に使うようにすること、画面上でタッチ・ドラックした領域を実際の画像の対応領域の座標へ変換する。

藤島:iPhone端末でのPDF伝票文字抽出アプリの開発に入る。

赤瀬:100x100サイズでの学習ファイルを作成した。Gitにアップしている。今までは既成のフレームワークをルようした研究を行ってきているが、今後はニューラルネットワークの中身を触る。

中尾:iPhoneを車のフロントガラスに取り付けて、道路での走行ビデオを取得する。止まれやスピード制限標識を識別する。GPS機能を使って、車速を計測する。