知覚班は知能ロボットに必要な研究をしています。
皆さんは、ロボットが自律するために必要なシステムとはどのようなものであるか、分かりますか?私たちは、ロボットが自律するために必要な条件を三つの段階に分けてみました。

第一段階
見る、聞くなどの感覚を基に周囲の環境を認識すること。
第二段階
認識した環境から自らの位置を把握して最適な行動を選択すること。
第三段階
歩くなどの移動方法、掴むなどの目的を達成する手段を実行すること。

同じサークル内の班に例えると、第三段階はアーム班、二足班の、第二段階はマウス班の研究内容に当たると思います。
ロボットが活動する領域の中で自律するにはこの三つの段階を統合的に扱うことが必要になります。それは自ら見て考え動くこと,人間のように知能を持つことが必要になります。 知能ロボットは周囲の環境に対してフィードバックを行い現実世界に対処できます。周囲の環境を認識し、適切な行動を選択することは、介護ロボットや自動車の運転補助システムなど、これから人間社会の中で働くロボットに必要なものであると考えられます。
知覚班の活動は、この広い研究課題の中から第一段階に重点を置いて研究しています。

周囲の環境の認識は、ただセンサの値を得るだけでは出来ません。人間が感覚器官を持つということと、人間が空間の認識をできるということは同義ではありません。人間は、脳内で行われている演算と記憶に基づいて空間を認識していると考えられます。そして,視力だけではなく多くの感覚器官からもたらされる複合的な情報を処理することにより、人間の正確な空間認識力は成り立っていると言えます。このような事実も踏まえ、機械(電子計算機)に高度な情報処理を行わせることを目標として、研究を行います。

主な研究課題は以下の通りです。
画像処理。センサの新規活用。または、センサの改良。センサフュージョン。効率の良いセンサ情報の取得システムなど

2005年度の製作では、UFOキャッチャーの画像認識による自動化を研究しました。研究成果:GBカメラによる画像の取得。Visual Basicの画像処理プログラミング。UFOキャッチャーの製作。2006年度は2005年度の研究結果を活かし、自動探索ロボットの研究を行いました。2008年度は慣性センサの研究を行ないました。2009年度は2008年度の成果を活かし、慣性装置の研究と製作、画像認識の研究を行いました。2010年度は画像処理用ライブラリのOpenCVを用いて人間とじゃんけんをできるようなソフトウェアの開発を目標として活動しました。Webカメラを用いて画像を撮影し、コンピュータに判定を行わせます。