論文の概要: Explainable Goal-Driven Agents and Robots -- A Comprehensive Review
- arxiv url: http://arxiv.org/abs/2004.09705v9
- Date: Fri, 23 Sep 2022 08:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:24:12.052274
- Title: Explainable Goal-Driven Agents and Robots -- A Comprehensive Review
- Title(参考訳): 説明可能な目標駆動エージェントとロボット - 包括的なレビュー
- Authors: Fatai Sado, Chu Kiong Loo, Wei Shiung Liew, Matthias Kerzel, Stefan
Wermter
- Abstract要約: 論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
- 参考スコア(独自算出の注目度): 13.94373363822037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent applications of autonomous agents and robots, such as self-driving
cars, scenario-based trainers, exploration robots, and service robots have
brought attention to crucial trust-related challenges associated with the
current generation of artificial intelligence (AI) systems. AI systems based on
the connectionist deep learning neural network approach lack capabilities of
explaining their decisions and actions to others, despite their great
successes. Without symbolic interpretation capabilities, they are black boxes,
which renders their decisions or actions opaque, making it difficult to trust
them in safety-critical applications. The recent stance on the explainability
of AI systems has witnessed several approaches on eXplainable Artificial
Intelligence (XAI); however, most of the studies have focused on data-driven
XAI systems applied in computational sciences. Studies addressing the
increasingly pervasive goal-driven agents and robots are still missing. This
paper reviews approaches on explainable goal-driven intelligent agents and
robots, focusing on techniques for explaining and communicating agents
perceptual functions (example, senses, and vision) and cognitive reasoning
(example, beliefs, desires, intention, plans, and goals) with humans in the
loop. The review highlights key strategies that emphasize transparency,
understandability, and continual learning for explainability. Finally, the
paper presents requirements for explainability and suggests a roadmap for the
possible realization of effective goal-driven explainable agents and robots.
- Abstract(参考訳): 自動運転車、シナリオベーストレーナー、探査ロボット、サービスロボットといった自律型エージェントやロボットの最近の応用は、現在の人工知能(AI)システムに関連する重要な信頼に関わる課題に注意を向けている。
connectionist deep learning neural networkアプローチに基づいたaiシステムは、大きな成功にもかかわらず、彼らの決定や行動を説明する能力がない。
象徴的な解釈能力がなければ、それらはブラックボックスであり、決定やアクションが不透明になり、安全クリティカルなアプリケーションでは信頼できない。
AIシステムの説明可能性に関する最近のスタンスは、eXplainable Artificial Intelligence(XAI)に関するいくつかのアプローチを目撃しているが、研究の大半は、計算科学に適用されたデータ駆動型XAIシステムに焦点を当てている。
ますます広まりつつある目標駆動型エージェントやロボットに対処する研究はまだ欠けている。
本稿では,人間とエージェントの知覚機能(例,感覚,視覚)と認知的推論(例,信念,欲望,意図,計画,目標)をループ内で説明し,伝達する技術に焦点を当てた,目標駆動型知的エージェントとロボットに関するアプローチをレビューする。
このレビューは、説明可能性のための透明性、理解可能性、継続的な学習を強調する重要な戦略を強調している。
最後に、説明可能性の要件を提示し、効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Explainable Artificial Intelligence for Smart City Application: A Secure
and Trusted Platform [6.1938383008964495]
意思決定の解釈可能性に対する制御の喪失は、多くのデータ駆動自動化アプリケーションにとって重要な問題となっていると認識されている。
この章では、サイバーセキュリティにおける機械学習アプリケーションに関する包括的な研究を行い、この問題に対処するための説明責任の必要性を示している。
説明可能な人工知能(XAI)という新しい技術パラダイムを考えると、この章ではブラックボックスからホワイトボックスへの移行について論じる。
論文 参考訳(メタデータ) (2021-10-31T21:47:12Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable [5.4138734778206]
ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
論文 参考訳(メタデータ) (2020-12-11T00:50:09Z) - Integrating Intrinsic and Extrinsic Explainability: The Relevance of
Understanding Neural Networks for Human-Robot Interaction [19.844084722919764]
説明可能な人工知能(XAI)は、インテリジェントで自律的なシステムの信頼と受容を促進するのに役立つ。
NICOは、オープンソースのヒューマノイドロボットプラットフォームであり、ロボット自身による本質的な説明と環境によって提供される外生的な説明の相互作用によって、効率的なロボット動作を実現する方法について紹介されている。
論文 参考訳(メタデータ) (2020-10-09T14:28:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。