M1ゼミ

参加者:全員 中尾:UIKit:AVFoundation:を試した結果について、分析し、UIKitで画像のデータを取得できるタイミングを探る。 UIKitで画像使うボタンを押した時のデータの流れを探って、画像データを他の関数に渡せるかを判断する。 仮屋:OpenCVを利用した顔認識をAndroidに実装(静止画) 今週以降は顔と認識した領域に矩形を描画、また動画における物体認識のアプリケーション開発について学習を進める。 機械学習の基本知識の習得も忘れず! 赤瀬:切り出した画像のトップビュー形式への正規化について、アフィン変換による調整を行なった、奥行きの距離感が得られない。 今週は射影変換を取り入れた試みを行う。パレメータ(変換マトリックス)の決定方が肝心です。 オープンキャンパス(九工大版SNOW)opencvに初めから入っている.xmlファイル(顔,目)の動作確認を行った. 今週AAM/ASM モデルを 調べてみる。 藤島:iAppをUIKitを使用し、iPhone のカメラ機能を起動できた。 coreDataというデータベースを利用できる状態にした、例にテーブルを作成し、データ入力ができた。 今週、撮影画像を画像ビューアに表示し、指でタッチした位置情報を習得する。可能であれば、タッチした文字列を切り出して、表示する。  

今週の進捗5/28-5/31(中尾)

・進捗 カメラを利用するためのフレームワークは2つあり、前回はAVFoundationを用いてカメラを利用した。今回はUIKitを用いたカメラアプリの作成を行った。このアプリでは撮影の開始のコントローラを実現し、写真をアルバムに保存できるように実装した。 UIKit:実装は簡単だが、画像を取得する画面をカスタマイズできない。 AVFoundation:実装は難しいが、画像を取得する画面をカスタマイズできる。 ・課題 AVFoundationを用いたカメラで、撮影の開始・終了を実装する。またOpenCVを利用してリアルタイムで画像の変換を行えるように試みる。