「個別ゼミ」カテゴリーアーカイブ

近藤の週報(5/20 ~ 5/26)

  • 5/26 13:00 ~ 15:30 願書出願
  • 5/25 13:00 ~ 18:30 advGANの実行 / 電子回路

https://github.com/mathcbc/advGAN_pytorch これを先週は白黒画像(MNIST)をもちいて実行したが、カラー画像(CIFAR10)を用いて実行した。入力画像の次元を1から3にし、だまされるモデルを変えただけなので、ちゃんとできているかわからない*1

今回だまされるモデルの精度はテスト画像10000枚で0.852400の精度であった。

訓練用画像50000枚では、num_correct: 3216 accuracy of adv imgs in training set: 0.06432

テスト画像10000枚では、num_correct: 717 accuracy of adv imgs in testing set: 0.071700

下の画像3枚がテスト画像12枚の結果。グラフのタイトルがだまされるモデルが予想した結果。

週報(大下)

顔の表情認識にオートエンコーダを使用

1801.08329.pdf (arxiv.org)

1.顔の抽出と検出 2.トリミングされた画像を計算 3.オートエンコーダを使用して、高次元HOG機能を低次元に縮小4.SVMモデルから表情を分類

非線形機械学習技術を効果的に使用して、より低い次元で最も関連性の高い特徴の全体的な表現を得ることができる方法を示すもの

精度は90%後半

(HOGは、コンピュータビジョンと画像処理に広く使用されている機能記述子)(画像のローカライズされた部分におけるグラデーションの方向の発生をカウント)

オートエンコーダは、与えられた入力をその出力で再現する教師なしのもの。指定された入力を出力時に複製する。出力単位が隠れ層を通じて入力単位にリンクされる ANN 設定を表す。入力データを低次元の潜在表現に表現できます。

(教師なし学習とは、「出力すべきもの」があらかじめ決まっていない)

他にFERの方法がある。

PCA は、直交変換を使用して、相関変数の観測値を主成分と呼ばれる線形非相関変数の値のセットに変換する統計的手順。PCAは特徴の次元を減らす有効な方法で、特徴の寸法低減のためにFERに広く適用されている。