論文の概要: Explainable AI for System Failures: Generating Explanations that Improve
Human Assistance in Fault Recovery
- arxiv url: http://arxiv.org/abs/2011.09407v2
- Date: Thu, 19 Nov 2020 13:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:46:42.257402
- Title: Explainable AI for System Failures: Generating Explanations that Improve
Human Assistance in Fault Recovery
- Title(参考訳): システム障害のための説明可能なAI: 障害復旧における人的支援を改善する説明を生成する
- Authors: Devleena Das, Siddhartha Banerjee, Sonia Chernova
- Abstract要約: 我々は,AIエージェントの計画実行中に発生する障害を自然言語で自動説明する手法を開発した。
これらの説明は、専門家でないユーザーが異なる障害点を理解するのを助けることに焦点をあてて開発されている。
既存のシーケンス・ツー・シーケンスの方法論を拡張して,文脈に基づく説明を自動的に生成する。
- 参考スコア(独自算出の注目度): 15.359877013989228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing capabilities of intelligent systems, the integration of
artificial intelligence (AI) and robots in everyday life is increasing.
However, when interacting in such complex human environments, the failure of
intelligent systems, such as robots, can be inevitable, requiring recovery
assistance from users. In this work, we develop automated, natural language
explanations for failures encountered during an AI agents' plan execution.
These explanations are developed with a focus of helping non-expert users
understand different point of failures to better provide recovery assistance.
Specifically, we introduce a context-based information type for explanations
that can both help non-expert users understand the underlying cause of a system
failure, and select proper failure recoveries. Additionally, we extend an
existing sequence-to-sequence methodology to automatically generate our
context-based explanations. By doing so, we are able develop a model that can
generalize context-based explanations over both different failure types and
failure scenarios.
- Abstract(参考訳): インテリジェントシステムの能力の増大に伴い、人工知能(AI)とロボットの日常生活への統合が増加している。
しかし、そのような複雑な人間環境で対話する場合、ロボットのような知的システムの故障は避けられず、ユーザからの回復支援を必要とする。
本研究では,AIエージェントの計画実行中に発生する障害の自然言語による自動説明を開発する。
これらの説明は、専門家でないユーザーが回復支援を提供するために異なる障害点を理解するのを助けることに焦点を当てて開発されている。
具体的には,非専門家ユーザがシステム障害の根本原因を理解し,適切な障害復旧を選択するための,コンテキストベースの情報型を導入する。
さらに,既存のシーケンス・ツー・シーケンス・方法論を拡張して,文脈に基づく説明を自動的に生成する。
そうすることで、さまざまな障害タイプと障害シナリオの両方に対して、コンテキストベースの説明を一般化するモデルの開発が可能になります。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Automated Process Planning Based on a Semantic Capability Model and SMT [50.76251195257306]
製造システムと自律ロボットの研究において、機械で解釈可能なシステム機能の仕様に「能力」という用語が用いられる。
セマンティック能力モデルから始めて、AI計画問題を自動的に生成するアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-14T10:37:34Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Semantic-Based Explainable AI: Leveraging Semantic Scene Graphs and
Pairwise Ranking to Explain Robot Failures [18.80051800388596]
より一般化可能なセマンティックな説明フレームワークを導入する。
我々のフレームワークは、シーン内の意味情報を自律的にキャプチャして、意味記述的な説明を生成する。
以上の結果から,これらの意味記述的説明は,障害の特定と回復支援を両立する日常的ユーザの能力を大幅に向上させることが示唆された。
論文 参考訳(メタデータ) (2021-08-08T02:44:23Z) - Explainable AI for Robot Failures: Generating Explanations that Improve
User Assistance in Fault Recovery [19.56670862587773]
エージェントの計画実行中に予期せぬ障害の原因を非専門家に説明する,新たなタイプの説明を紹介する。
既存のエンコーダデコーダモデルを拡張して,このような説明を自律的に生成する方法を検討する。
論文 参考訳(メタデータ) (2021-01-05T16:16:39Z) - Foundations of Explainable Knowledge-Enabled Systems [3.7250420821969827]
本稿では,説明可能な人工知能システムの歴史的概要を紹介する。
我々は、エキスパートシステム、認知アシスタント、セマンティックアプリケーション、機械学習ドメインにまたがる知識対応システムに焦点を当てる。
説明可能な知識対応システムと説明可能な知識対応システムについて,新たな定義を提案する。
論文 参考訳(メタデータ) (2020-03-17T04:18:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。