本研究ではKinectを用いてRGB情報と深度情報を取得し、情報を処理することで複数の衣類が混在する衣類群から一つの衣類を分別するシステムの開発を行う
工程
①最高点の特定
対象群上方に設置されたKinectから衣類までの距離を深度情報より取得し,Kinectセンサーから最も近距離に存在するポイントを特定することで最も上部にある衣類の最高点を特定.
②衣類範囲の分別
取得したRGBデータを用いて,輪郭抽出・エッジ検出・グレースケール化を行い2値化画像の作成を行うことで,対象の輪郭による各衣類の同色範囲を線引き・分割することが可能。
③フッキング範囲の決定
RGBデータより作成した2値化画像上に深度情報より特定したポイントを重ね合わせ,画像上において最も高い位置に存在する衣服の水平方向と垂直方向に輪郭までの直線の探索を行う.2値化画像で輪郭が発見されるまで探索が行われる.これにより,画像上において空間の最も高い位置から探索された十字部分を対象のフッキング範囲を推定できる
感想
一番上にある衣服をフッキングするだけなら①の工程だけでよくない?と思ったりしたが、応用例があれば知りたい