AROB:
I almost have finished the experiments of my proposed work on AROB 2022. And I got some improvement on the work.
The proposed work tend to have some improvement on pedestrian detection accuracy.
And the total detection accuracy also improved a little … Continue Reading ››
- QT-Net
- Taking source image for another 50 classes of items.
- To test the capacity of the network, doing experiments on the datasets with 90 classes.
- Making annotation for the test datasets with 90 classes, and test the model on it, the accuracy is 0.987 (IOU=0.75)
- Modified the output of the plot of BBox. For any item, … Continue Reading ››
・車座参加
・chainerからPyTorchに変更して、学習を行い、制度を求めた。
マスク無
Test set: Average loss: 0.0166, Accuracy: 2436/3589 (67.87%)
・すべてのデータセットにマスクをつける範囲を白く塗りつぶしている。
https://arxiv.org/pdf/2102.09546.pdf これを少し読んだ
研究の新規性を考えた
歩容認証はバッグを持ったり、コートを着たり、帽子をつけたりしたときの外見の変化に弱い。そこで外見の変化に強い歩容認証を行いたい
人物のシルエット+骨格の情報を入力としたモデルを作ろうと考えています
精度はRGBの場合とほとんど変わらなかった
- カメラ2台に対応したモデルを実装
- 先行研究の論文を読む
Two-Stream CNNs for Gesture-Based Verification and Identification: Learning User Style
https://www.cv-foundation.org/openaccess/content_cvpr_2016_workshops/w4/html/Wu_Two-Stream_CNNs_for_CVPR_2016_paper.html
概要
・ハンドジェスチャーを生体認証として利用するための研究
・ネットワークはTwo-Stream CNNsを使用し、ハンドジェスチャーのdepth map、optical flowから特徴量を抽出
・ImageNetの重みで初期化
・ユーザーが行う特定のジェスチャーだけでなく、ユーザーがジェスチャーを行う際の特定のスタイルを学習する
Stay Hungry, Stay Foolish!