近藤の週報(12/9 ~ 12/15)

骨格とシルエットを入力としたモデルを作成するために、まず、骨格情報をもとに歩行者の推定を行いたい

そこで骨格を図のようなグラフとして入力できるGraph Convolution Networkを使用しようと考えました。

実際は動画なので、骨格の連続データで、https://github.com/yysijie/st-gcnを試そうと思いましたが、データ形式が分かっておらず苦戦しています。

大ゼミまでに進捗を出せるように何とか頑張ります

グラフ以外での骨格情報の処理方法の案をお聞きしたいです

週報(大下)

・すべてのデータセットに、マスクをかける範囲を白く塗りつぶすよう実行した。

・データセットの画像の下半分を白くして、学習を行った。

loss: 0.0213, Accuracy: 2086/3589 (58.12%)

・データセットのマスクの範囲を白く塗りつぶすよう実行した後に、学習を行った。

loss:0.0199 Accuracy: 2220/3589(61.86%)

中身見たら、白く塗りつぶせてない画像もありました。

進捗(水戸)

「ユーザーのSNS投稿に基づいた個人嗜好情報分類による高適合性情報提示システムの提案」

進捗
ユーザー名入力>>ユーザー嗜好判断>>地名入力>>ユーザーの嗜好にあった画像を抽出
する一連のプログラムを書いた。

嗜好分類、情報抽出ともに3秒ほどで行える。食事カテゴリーは分類がうまくいっている。

今は分類モデルをもう一度作成して精度向上に努めています。
アクティビティ... 人と動物、マリンスポーツ、山登りなど人を含む画像をメインに集める
街並み... 市街地の景観、昼と夜の写真も入れ込む。
自然...人が映っていない山や海、川の風景メイン。
食事... 和洋中、ケーキなど
その他... ファッション、文字投稿、動物のみの画像など

今週中には実験してみます。

進捗(北原)

SAES:発表済み→12/30までにフルペーパー提出

ITS;アブスト提出

・JIIAE:ジャーナル執筆
gitにpushしているので時間があったら確認お願いします🙏
→芹川先生と張先生の写真が欲しいです😭

・今使っているMdk-ResNetの出力にArcFaceを組み込んで深層距離学習ができるようにした。閾値を決めて、設定した行動・所持位置以外の入力があった際に、弾けるようにプログラムを修正していく(今月の大ゼミまでに終わらせる)

・タスク(優先度高い順に)
深層距離学習用にプログラム作成(大ゼミ用資料作成)→AROBフルペーパー→SAESフルペーパー→北海道のフルペーパー