GitLabに収集画像データ、スクレーピングプログラムをpushした。
https://mountain.elcs.kyutech.ac.jp/mito/master_thesis_2021
システム全体のフローチャート作成中。
データベースの勉強。
GitLabに収集画像データ、スクレーピングプログラムをpushした。
https://mountain.elcs.kyutech.ac.jp/mito/master_thesis_2021
システム全体のフローチャート作成中。
データベースの勉強。
・明専スクールを修了しました。
・全体ゼミのためのパワポを作り始めました。
SSDをもう一度学習するためのデータセット作成中。アノテーション頑張ります。。。
学部から引き継いでいる研究の修士でのタイトルを決めたい、、、
学部のタイトル「視覚障害者が無介助で店頭の商品を識別するシステムの提案」
去年のM2の先輩方の修論を読みたいのですがどこから読めますか
git labとNext Cloudで見つかりませんでした。
・長回しで取ったmp4ファイルを自動で分割するプログラムを作成
mp4ファイルにMediaPipe Handsを使うことで手を認識し、ジェスチャーの開始フレームと終了フレームを求め、ジェスチャーごとのmp4ファイルに分割
・自分で集めたデータを学習、ファインチューニングありとなしで検証
学習に使ったデータ:カメラ1台で撮影、10種類のハンドジェスチャーをそれぞれ20回ずつ
精度はどちらも100%になりましたが、t-SNEで可視化したものやcos類似度を見ると、ファインチューニングなしで学習したものは本質的に動作の特徴を学習できておらず、今回集めたジェスチャーのデータに過学習しているように見えます。
ファインチューニングによる負の転移は今のところ起きてないようなので、ファインチューニングが有効であるという前提で研究を続けます。
3~4歩程度の動画で40個のデータを作成。現在、7人分収集した。
合計280個で70%をtrain(196), 20%をval(56), 10%をtest(28)データとした。
白黒の動画にしたかったが、あまりうまくいかなかった(動画をなぜかのせれなかったので、スクショ)
import cv2
# 動画読み込みの設定
movie = cv2.VideoCapture('3.mp4')
# 動画ファイル保存用の設定
fps = int(movie.get(cv2.CAP_PROP_FPS)) … Continue Reading ››
点字での角度調整のプログラム
実際使う状況(車内)で撮影したデータを使って精度や顔を検出できるかなど調べてみた。
・精度を調節(minNeighborsを下げ、minSizeを大きく)することで、日光の影響を受けずに類似度を測定することができた。
・外が真っ暗になるとほぼカメラに何も写らないため、顔を検出できない。
→運転席と助手席の上にある電気を点灯すれば解決
・サングラスをしている時としていない時の類似度が0.58ほどだったため、前回の結果も踏まえ0.5以上で同一人物とみなす。
また二つの企業説明会に参加してESを作りました。
前処理部分のコードを作成して、データセットの前処理を行っていますが、まだ完了していません。
たぶんまだ修正が必要なところがあります…来週はきっと完成します。
optical
strain