スライド作成、発表練習(昨日)
内容梗概が完成しているのですが、参考文献を入れるか、画像を入れるかで迷っています。
スライド作成、発表練習(昨日)
内容梗概が完成しているのですが、参考文献を入れるか、画像を入れるかで迷っています。
修論執筆(参考文献以外は書き終わりました)
来週の予定
修論の細い修正、提出
論文梗概、発表資料作成
修論執筆中(実験結果のエクセルと合わせ途中までGitにpushしました)
明日ホンダの配属面談があるので、それが終わり次第修論を書き上げたいです
修論タイトルですが
「偏光フィルムを用いた既存標識への情報付加に最適なコードの提案」
と考えていますが、どうでしょうか
実験データそれぞれに対して比較(そのまま推論、分割処理後)し、精度と結果をまとめた
mobilenetの画像の入力サイズを変更し(512)、その場合の認識可能な距離と結果も加えました
修論執筆、全体ゼミスライド作成
実験の結果、4*4のコードのみでの特定は近い距離で明確にならないと検出できませんでした
背景を含めて学習させ、かつ標識が通過する位置をトリミングした場合は15メートルほどでも検出可能です
ただ、4*4のコードそれぞれの区別はおそらくできないです(フィルムを張っていない場合でも検出されそうです)
背景と合わせて学習させることで、標識は確定できるので、埋め込める情報は減りますが2*2のコードとした場合はそれぞれを別のコードとして認識ができ、フィルムのない標識は検出しない(類似物体の検出抑制)ということができそうです。(試しに撮影した動画ではできそうです)
学内の実験ではとりあえず2*2のコードでデータを取ってみます。Jetsonでは推論は難しいですが、より入力画像のサイズが大きいモデルなら3*3くらいまでなら区別できないかなと思います。Jetsonのカメラがあまり性能よくなかったので、USBカメラを接続してみましたが、仕様の問題かフルHDでは映像が乱れ安定してない様子でした。実験はスマホで撮影して、その動画の推論をJetsonで行おうと思います。
最終的には、Jetsonでの車載では、20mの距離からの検出では2*2が現実的かなと思います。将来的な車載GPUの処理性能向上や高解像度のカメラが利用可能になることを踏まえれば3*3あるいは4*4のコードなどより多くの情報が埋め込み可能になるというところで修論の結論として書きたいと思います。
転移学習させたが、精度が悪化した。重みを固定する層と各層の学習率の変更で改善に試みます。
Mobilenetは小さい物体の検出が難しいので、取得画像を2分割して処理するように変更。
20種類分の学習データの準備が間に合わなかったので急ぎ作成します。
Jetsonのカメラからの映像を補正した。
周囲が赤みがかっていた(色収差)の補正はNvidiaから補正用のファイルがリリースされていたので適用したところ改善されました。
歪み補正はOpenCVを利用、精度はいまいちな気がします
歪み補正前
補正後
Mobilenetのモデルを見直したところ、転移学習ができていないようだったので、改めて学習しなおそうと思います。
来週の予定
モデルの再構築、実験用の標識模型の作成
全体ゼミ資料作成
来週の予定
カメラから得られる映像の歪み、色味補正
Nvidiaの公式動画などを参考に、カメラでの認識を行いました。
Jetsonに最適化されたモデルの変換についての理解が間違っており、mobilenet_V2の転移学習モデルはONNX形式に変換させる必要がありました。結果、最適化とカメラでの認識ができました。
結構サクサク処理できている印象でした。これだともう少しカメラの解像度を上げても処理できそうです。
まだ4クラス分類なので、数を増やして精度を見ようと思います。
明専スクールの受講。
pytorch学習済みモデルをTensorRT(Nvidiaデバイス向け高速推論モデル)に変換、推論。