論文の概要: Explaining Explaining
- arxiv url: http://arxiv.org/abs/2409.18052v1
- Date: Thu, 26 Sep 2024 16:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 21:38:28.262830
- Title: Explaining Explaining
- Title(参考訳): 解説
- Authors: Sergei Nirenburg, Marjorie McShane, Kenneth W. Goodman, Sanjay Oruganti,
- Abstract要約: 高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
- 参考スコア(独自算出の注目度): 0.882727051273924
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explanation is key to people having confidence in high-stakes AI systems. However, machine-learning-based systems - which account for almost all current AI - can't explain because they are usually black boxes. The explainable AI (XAI) movement hedges this problem by redefining "explanation". The human-centered explainable AI (HCXAI) movement identifies the explanation-oriented needs of users but can't fulfill them because of its commitment to machine learning. In order to achieve the kinds of explanations needed by real people operating in critical domains, we must rethink how to approach AI. We describe a hybrid approach to developing cognitive agents that uses a knowledge-based infrastructure supplemented by data obtained through machine learning when applicable. These agents will serve as assistants to humans who will bear ultimate responsibility for the decisions and actions of the human-robot team. We illustrate the explanatory potential of such agents using the under-the-hood panels of a demonstration system in which a team of simulated robots collaborates on a search task assigned by a human.
- Abstract(参考訳): 高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
しかしながら、現在のAIのほぼすべてを占める機械学習ベースのシステムは、通常はブラックボックスであるため、説明できない。
説明可能なAI(XAI)ムーブメントは、この問題を"説明"を再定義することによってヘッジする。
人間中心で説明可能なAI(HCXAI)ムーブメントは、ユーザの説明指向のニーズを特定するが、機械学習へのコミットメントのため、それらを満たすことはできない。
クリティカルドメインで運用する現実の人々が必要とする説明の種別を達成するためには、AIにどのようにアプローチするかを再考する必要がある。
本稿では、機械学習によって得られたデータによって補完される知識ベースのインフラを応用した認知エージェント開発のためのハイブリッドアプローチについて述べる。
これらのエージェントは、人間ロボットチームの決定と行動の最終的な責任を負う人間のアシスタントとして機能する。
シミュレーションロボットのチームが人間に割り当てられた探索タスクで協調するデモシステムの、内部パネルを用いたエージェントの説明可能性について述べる。
関連論文リスト
- Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Alterfactual Explanations -- The Relevance of Irrelevance for Explaining
AI Systems [0.9542023122304099]
我々は、決定を完全に理解するためには、関連する特徴に関する知識だけでなく、無関係な情報の認識もAIシステムのユーザーのメンタルモデルの作成に大きく貢献すると主張している。
私たちのアプローチは、Alterfactual Explanations(Alterfactual Explanations)と呼ばれ、AIの入力の無関係な特徴が変更された別の現実を示すことに基づいています。
我々は,AIの推論のさまざまな側面を,反事実的説明法よりも理解するために,人工的説明が適していることを示す。
論文 参考訳(メタデータ) (2022-07-19T16:20:37Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainability via Responsibility [0.9645196221785693]
本稿では,特定のトレーニングインスタンスをユーザに提供する,説明可能な人工知能へのアプローチを提案する。
我々は、AIエージェントの動作の説明を人間のユーザに提供する能力を近似することで、このアプローチを評価する。
論文 参考訳(メタデータ) (2020-10-04T20:41:03Z) - Who is this Explanation for? Human Intelligence and Knowledge Graphs for
eXplainable AI [0.0]
我々は、eXplainable AIにヒューマンインテリジェンスがもたらす貢献に焦点を当てる。
我々は、知識表現と推論、社会科学、人間計算、人間-機械協調研究とのより優れた相互作用を求めている。
論文 参考訳(メタデータ) (2020-05-27T10:47:15Z) - Explainable Goal-Driven Agents and Robots -- A Comprehensive Review [13.94373363822037]
論文は、目標駆動型知的エージェントとロボットの説明可能なアプローチをレビューする。
エージェントの知覚機能や認知的推論を説明・伝達する技術に重点を置いている。
効果的な目標駆動型説明可能なエージェントとロボットの実現に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-04-21T01:41:20Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。