2021/12/15 10:50

(2022年1月11日更新)

推論過程のブラックボックスを解消し、人が理解しやすいAIの実現に貢献

理研革新知能統合研究センター(AIP)と三菱電機株式会社は、共同で「制御の根拠を明示できるAI技術」を開発しました。計算が複雑で推論過程がブラックボックスとなる多くのAI技術は、人が理解しづらく、信頼性や説明性が求められる制御分野に適用する上で大きな課題となっています。今回、AIが制御を行った際に、その制御の根拠や将来の状態を明示し、ブラックボックスを解消することで、人が理解しやすいAIの実現に貢献します。

本共同研究には、防災科学チームの上田修功リーダーと高橋温志特別研究員が参画しています。

 

従来技術と今回開発した技術の比較(図提供:三菱電機株式会社)

詳細は、三菱電機株式会社のホームページをご覧ください。

-2021年12月15日メディア掲載

  • (日本経済新聞)2021年12月15日 朝刊 三菱電機、機器制御の根拠示せるAI 「暴走防ぐ」
  • (日刊工業新聞)2021年12月15日 朝刊 根拠明示する機器制御AI 三菱電・理研
  • (電気新聞)2021年12月15日 三菱電機、制御の根拠示せるAI
  • (化学工業日報)2021年12月15日 朝刊
    三菱電機 理研 AIで制御の根拠明示 社会インフラ・空調機向け

-2021年12月14日 Webメディア掲載

-2021年12月15日 Webメディア掲載

-2022年1月7日 メディア掲載

-2022年1月11日 メディア掲載

  • 日経産業新聞 2022年01月11日  4面
    三菱電機、理化学研究所、機器制御の根拠示せるAI

※ご覧いただくには会員登録が必要なものもあります。

 

関連研究室

last updated on 2024/4/17 16:32研究室