NEWS

MINDsLab(マインズラボ)社の研究チーム、視覚分野人工知能の研究成果が「パータン認識ジャーナル」に採択

2022-04-25    hit . 59874


2022.04.22 17:42

人工知能プラットフォーム及び人工人間専門企業であるMINDsLab(マインズラボ)社は、自社の研究チームのチャ・ソングック研究員と、
韓国国防科学研究所のワン・ユスン研究員が共同で参加した論文が、国際パターン認識協会(International Association for Pattern Recognition)の
グローバル学術誌である「パターン認識ジャーナル(Pattern Recognition Letters, PRL)に採択されたと発表。

MINDsLab社は去年9月と12月、世界最高権威の人工知能音声信号処理学会である「INTERSPEECH 2021」と、
「NeurIPS Workshop on ML for Creativity and Design 2021」の論文が掲載されたことに続いて、
今年再度SCIEレベルの世界的な学術誌に論文が採択されたことである。

特に、今までの学術成果は音声分野の人工知能エンジンに関したことであったが、今回の論文は視覚エンジンの分野で、
MINDsLab社の研究チームが多様な領域で研究成果を上げていることを証明したのである。
最近話題になっている視覚分野の人工知能関連の論文が選定されたのはその意味が大きい、との評価。

今回の論文は学習したことがない物も認識する「zero-shot segmentation」研究で、高価のラベリングコストの問題を解決できる画期的な接近法を提案している。
チャ・ソングック研究員によると、本研究は「Multi-modal (vision+NLP)」の概念が流行る前の2020年に進めたことで、
現状は「Human-Object Interaction (HOI)」まで研究が進められている、との説明。

マシンラーニング/ディープラーニングを用いた視覚認識は、ビックデータと演算基盤で最近爆発的な発展がある研究分野で、
従来の接近方法は物を認識するためには必須的に多くのデータの学習が必要であったが、Zero-shot learningは学習無しで新しい物を認識する。

本研究の論文「空間及び多重スケール認識視覚的クラスエンベディングによるゼロショットの意味分割
(Zero-Shot Semantic Segmentation via Spatial and Multi-Scale Aware Visual Class Embedding)」では
自然言語モデルで物に対する知識をヒントとして使う従来の接近方法の普遍化限界を批判して、
その対案として自然言語モデルの知識の代わりに視覚モデルの知識を使用するSM-VCENetを提案している。

又、普遍化性能を測定できる新しいベンチマークPASCAL2COCOを提案している。
SM-VCENetはzero-shot semantic segmentationのベンチマークであるPASCAL-5iで大きい差で最高点数を更新して、
PASCAL2COCOベンチマークを通じて普遍化-堅固さを示した。

一方、世界的な水準の人工知能技術力で評価されているMINDsLab社は、自社開発のグローバル最高SoTA(State of The Art)レベルのAIエンジン40種と、
外部エンジンまで組合せが可能なAI応用プログラムであるインタフェースコネクター(API Connector)である「Maum Orchestra」プラットフォームにより、
顧客個別型AI顧客相談員、AI世話係、AI警備員、AI速記者などの人工人間を制作・供給している。



※本件についてお問い合わせ事項がございましら、当ホームページの「お申込み/お問い合わせ」又は下記の連絡先へご連絡お願い致します。
部署名:SEOIL E&M 企画マーケティンググループ
TEL :+82)2-6204-2033
E-mail : pl@seoilenm.com
ソース:韓国『人工知能新聞』 http://www.aitimes.kr/news/articleView.html?idxno=24845