NEWS

【AIレビュー】説明可能AIでディープラーニング生成モデルのエラーを修正する! KAIST人工知能大学院J.S.CHOI教授チームが開発

2021-06-30    hit . 60601


2021.06.25 18:07

KAIST(韓国科学技術院)は、韓国内で説明可能AI(Explainable AI。以下、XAI)の先駆者で最高権威者である
KAIST人工知能大学院のJ.S.CHOI(チェ·ジェシク)教授(説明可能人工知能研究センター長)の研究チームが、
ディープラーニング生成モデルのエラー修正技術を開発した。

最近ディープラーニング生成モデル(Deep Generative Models)はイメージ、音声だけではなく
文章など新しいコンテンツを生成するのに広く活用されている。
このような生成モデルの発展にもかかわらず、最近開発されたモデルも依然としてブラックボックスが存在するため、
国防、医療、製造、金融等の極めて重要な作業にモデルを活用することは困難であった。

CHOI教授の研究チームはディープラーニング内部を解析するXAI技法を活用して、
生成モデル内部でイメージ生成過程で問題を起こすユニット(ニューロン)を見つけて除去するアルゴリズムを考案し、生成モデルのエラーを受理した。

このような生成エラーの修理技術は、ニューラルネットワークモデルの再学習を要求せず、
モデル構造に対する依存性が少ないため、様々な 敵対的生成ネットワークに幅広く応用·適用できると期待される。
又、開発された技術はディープラーニング生成モデルの信頼度を向上させ、生成モデルが重要作業にも適用されると期待される。

主に人間の介入によるAIが殆どを占めていたが、人間の介入及び学習データがなくても自ら学習するニューラルネットワーク、
互いに対立する二つのシステムが競い合う方式で学習を進める教師なし学習方式のネットワークを
「敵対的生成ネットワーク」又は「生成的敵対ネットワーク(Generative Adversarial Network. 以下、GAN)」という。

2つのシステム(モデル)で、1つは生成器/生成子(G, Generator)であり、もう1つは分類器/判別子(D, Discriminator)で、
2つのモデルは学習しながらお互いに影響を与えて高度化する。

GANは2014年にニューラル情報処理システム学会(NIPS, Neural Information Processing System)から初めて発表された。

その後、2016年NIPSでGANチュートリアルが進んで、GANの可能性と潜在力について学界と産業界から大きな注目を集め、
これを通じて2017年7月、Google Deepmindは人と物体の動作や歩行能力を真似る人工知能を開発し、
Insilico Medicine社は新薬に活用される新しい化合物を開発したことで本格的に適用され始めた。

しかし、最新のGANモデルは依然として視覚的欠陥が含まれているイメージを生成しており、
再学習を通じてこれを解決するにはエラー修理を保障することができず、多くの学習時間と費用を要求することになる。
このように規模の大きいGANモデルの一部のエラーを解決するためにモデル全体を再学習することは適合でない。

研究チームは問題解決のために、生成エラーを誘導するディープラーニング内部のユニット(ニューロン)を探して、除去するアルゴリズムを開発した。
アルゴリズムはディープラーニングモデルの視覚的欠陥の位置を把握し、ディープラーニングモデル内の複数の階層に存在する
エラーを誘発したユニットを探し出して活性化しないようにして欠陥が発生しないようにした。

研究チームはXAI技術を活用して視覚的欠陥が生成されたイメージのどの部分に分布するのか、
またディープラーニング内部のどのユニットが欠陥の生成に関与するのかを発見することができた。
開発された技術はディープラーニング生成モデルのエラーを修理でき、生成モデルの構造に関係なく適用できる。

研究チームは伝統的な構造を持つ「進行型生成モデル(Progressive Growing GAN,PGGAN)」で
開発技術が効果的に生成エラーを修理できることを確認した。

修理性能はマサチューセッツ工科大学(MIT)が保有した修理技術に比べてFID点数が10点ぐらい減少し、
ユーザー評価で試験イメージグループの約50%で欠陥が除去され、約90%で品質が改善されたという結果を得た。

さらに特異構造を持つ「StyleGAN2」と「U-net GAN」でも生成エラーの修理が可能であることを示すことで、
開発技術の一般性と拡張可能性を示した。

研究チームが開発した生成モデルのエラー除去技術は、様々なイメージ以外にも様々な生成モデルに適用され、
モデルの結果に対する信頼性を高めると期待される。

共同第1著者である Ali Tousi氏とH.D.JUNG(チョン·ヘドン)研究員は
「ディープラーニング生成モデルが生成した結果にある視覚的エラーを探し、
それに相応する活性化を見せる生成モデル内部のユニットを順次除去することで生成エラーを受理できることを示した」とし、
「これは十分学習されたモデル内部に未学習又は学習を誤った内部要素があることを示す結果である」と述べた。

一方、KAISTAI大学院のAli Tousi氏とH.D.JUNG研究員が共同で第1著者として参加した今回の研究は、
4月13日にアーカイブを通じて「生成神経網から内部単位の自動補正(Automatic Correction of Internal Units in Generative Neural Networks)」
というタイトルで発表され、現地時間で6月19日から25日までオンライン開催サれた「国際コンピュータービジョン及びパターン認識学術大会 
(IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2021)」で6月23日発表された。

*本件についてお問い合わせ事項がございましら、当ホームページの「お申込み/お問い合わせ」か下記の連絡先へご連絡お願いします。
部署名:SEOIL E&M 企画マーケティンググループ
TEL :+82)2-6204-2033
E-mail : pl@seoilenm.com