二石 航歩 のすべての投稿

今週の進捗(二石)

修論執筆中(実験結果のエクセルと合わせ途中までGitにpushしました)

明日ホンダの配属面談があるので、それが終わり次第修論を書き上げたいです

修論タイトルですが

「偏光フィルムを用いた既存標識への情報付加に最適なコードの提案」

と考えていますが、どうでしょうか

今週の進捗(二石)

実験の結果、4*4のコードのみでの特定は近い距離で明確にならないと検出できませんでした

背景を含めて学習させ、かつ標識が通過する位置をトリミングした場合は15メートルほどでも検出可能です

ただ、4*4のコードそれぞれの区別はおそらくできないです(フィルムを張っていない場合でも検出されそうです)

背景と合わせて学習させることで、標識は確定できるので、埋め込める情報は減りますが2*2のコードとした場合はそれぞれを別のコードとして認識ができ、フィルムのない標識は検出しない(類似物体の検出抑制)ということができそうです。(試しに撮影した動画ではできそうです)

学内の実験ではとりあえず2*2のコードでデータを取ってみます。Jetsonでは推論は難しいですが、より入力画像のサイズが大きいモデルなら3*3くらいまでなら区別できないかなと思います。Jetsonのカメラがあまり性能よくなかったので、USBカメラを接続してみましたが、仕様の問題かフルHDでは映像が乱れ安定してない様子でした。実験はスマホで撮影して、その動画の推論をJetsonで行おうと思います。

最終的には、Jetsonでの車載では、20mの距離からの検出では2*2が現実的かなと思います。将来的な車載GPUの処理性能向上や高解像度のカメラが利用可能になることを踏まえれば3*3あるいは4*4のコードなどより多くの情報が埋め込み可能になるというところで修論の結論として書きたいと思います。

今週の進捗(二石)

Jetsonのカメラからの映像を補正した。

周囲が赤みがかっていた(色収差)の補正はNvidiaから補正用のファイルがリリースされていたので適用したところ改善されました。

歪み補正はOpenCVを利用、精度はいまいちな気がします

歪み補正前

補正後

Mobilenetのモデルを見直したところ、転移学習ができていないようだったので、改めて学習しなおそうと思います。

来週の予定

モデルの再構築、実験用の標識模型の作成

今週の進捗(二石)

Nvidiaの公式動画などを参考に、カメラでの認識を行いました。

Jetsonに最適化されたモデルの変換についての理解が間違っており、mobilenet_V2の転移学習モデルはONNX形式に変換させる必要がありました。結果、最適化とカメラでの認識ができました。

結構サクサク処理できている印象でした。これだともう少しカメラの解像度を上げても処理できそうです。

まだ4クラス分類なので、数を増やして精度を見ようと思います。