バーチャルファッションやモーションコントロールシステムなど、“夢を現実に、未来を創る”を合言葉に画期的ソリューションの提供を続ける「株式会社ネクストシステム」。
今回、新たにUnityに対応した「VisionPose」、今月リリース予定の「Kinesysバージョン3.0」と「ミチコンPlus」について、取締役の木村晋宏様と広報担当の田中利奈様にお話を伺わせていただきました。
「VisionPose」開発の経緯
-本日はお時間をいただき、ありがとうございます。どうぞよろしくお願いいたします。
よろしくお願いいたします。
-早速ですが、「VisionPose」の開発経緯について教えて下さい。
「VisionPose」はディープラーニングの技術を用いたものなのですが、「VisionPose」の開発経緯の前に、弊社のディープラーニングの取り組みについて説明いたします。
2015年に、ある自動車メーカーから、赤外線センサーカメラの「Kinect」を用いた行動解析のシステムについて相談がありました。
最初の相談では、工場で働く作業員が無理な姿勢で作業すると身体を壊してしまうので、まずは身体のどこに負担がかかるのかを可視化したい、というのが目的だったのですが、その条件を皮切りに、いろいろな案件を研究開発として一緒に進めていました。
同じく2015年に、こことは別のチームが携帯キャリアの会社との研究開発の中で指先認識にディープラーニングを用いて成果を上げていたことから、この技術が自動車メーカーとの共同研究にも使えるのではないか、と考えたわけです。
-ここからディープラーニングの開発が始まったのですね。
そうです。Kinectセンサーを用いて工場内の行動解析をする中で、赤外線のノイズ等、いくつかの課題が出てきました。そこで、ディープラーニングで解決できるのではないか、と考えたのです。
この自動車メーカーとは、その後もディープラーニングを用いた研究開発を進めています。
一例をあげますと、作業員が大きい部品を運んでいる途中で落としたりぶつけたりしたものを、その作業員の主観で「大丈夫」と判断してそのまま車に組み込むと不良品になってしまう可能性があるので、作業員の動きと部品の動きをモニターして、通常の動きとは違う動きをしたり、急な変化があったときにアラートを出しています。
他にも、プレスロボットとの共同作業を行っている現場で活用している事例もあります。単純作業が長く続く現場では事故も起こりやすいため、通常の作業員の動きをディープラーニングで学習させておき、作業員の疲れ等で通常とは逸脱した動きをすると、事故を防止するためにロボットを先に止めるようにしています。
そんなディープラーニングのノウハウが溜まっていたタイミングで2017年10月にKinectのディスコンのニュースが入りました。
我々が自社プロダクトとして開発・販売しているARサイネージ「Kinesys」は、人の動きに反応するサイネージなのですが、その「人の動き」を認識するところでKinectセンサーを使用していたので、このニュースを聞いた時は焦りました。
まずはKinesys用にKinectセンサーとアダプターをかき集めましたね。
※ ディスコン = 工業製品の製造中止、販売・出荷終了、製品シリーズの打ち切りなどの意味で用いられることが多い。参照:e-Words
80セットほどかき集め、しばらくは「Kinesys」の販売を続けられるようにしたのですが、ディスコンになった機器が無いと販売できないのでは、先々商売ができなくなってしまうので、Kinectセンサーの代わりとして、別の赤外線センサーカメラを検討しました。ただ、それらのセンサーについても将来的なディスコンの可能性は避けられません。
実は以前も同じようなことがあって、使用していたセンサーのディスコンは今回で2回目なのです。
「また同じことをまた経験するのもやだね」ということと、前述のチームがディープラーニングの知見を持っていたのもあって、「じゃあディープラーニングの技術をKinesys用に活用しましょう」という動きになったのです。
-「VisionPose」はもともとKinectの代わりだったのですか?
そうですね、VisionPoseは元々Kinesysに利用していたKinectの代わりとして考えていたのですが、(広報)田中がSNS等で紹介したところ、「Kinectの代わりに使わせてもらえないか」という問い合わせが増えてきたので、SDKとして提供できるように開発したのが「VisionPose」誕生のきっかけです。
-面白いですね。ピンチをチャンスに活かしたわけですね。