論文の概要: Explainability Via Causal Self-Talk
- arxiv url: http://arxiv.org/abs/2211.09937v1
- Date: Thu, 17 Nov 2022 23:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 13:39:24.803938
- Title: Explainability Via Causal Self-Talk
- Title(参考訳): 説明責任 - 因果自尊心
- Authors: Nicholas A. Roy, Junkyung Kim, Neil Rabinowitz
- Abstract要約: AIシステムの振る舞いを説明することは、実際には一般的に避けられる重要な問題である。
私たちは、すべてのデシダータを満たす効果的な方法を説明します。AIシステムをトレーニングして、それ自体の因果モデルを構築します。
この手法をシミュレーションした3次元環境に実装し、エージェントが忠実で意味論的に意味のある説明を生成する方法を示す。
- 参考スコア(独自算出の注目度): 9.149689942389923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining the behavior of AI systems is an important problem that, in
practice, is generally avoided. While the XAI community has been developing an
abundance of techniques, most incur a set of costs that the wider deep learning
community has been unwilling to pay in most situations. We take a pragmatic
view of the issue, and define a set of desiderata that capture both the
ambitions of XAI and the practical constraints of deep learning. We describe an
effective way to satisfy all the desiderata: train the AI system to build a
causal model of itself. We develop an instance of this solution for Deep RL
agents: Causal Self-Talk. CST operates by training the agent to communicate
with itself across time. We implement this method in a simulated 3D
environment, and show how it enables agents to generate faithful and
semantically-meaningful explanations of their own behavior. Beyond
explanations, we also demonstrate that these learned models provide new ways of
building semantic control interfaces to AI systems.
- Abstract(参考訳): AIシステムの振る舞いを説明することは、実際には一般的に避けられる重要な問題である。
xaiコミュニティは、多くのテクニックを開発してきたが、ほとんどが、より広いディープラーニングコミュニティがほとんどの状況で支払いを望んでいない一連のコストを伴っている。
我々はこの問題を現実的に捉え、XAIの野心とディープラーニングの実践的制約の両方を捉えたデシラタのセットを定義します。
私たちは、すべてのデシデラタを満たす効果的な方法を説明する:aiシステムをトレーニングして、自分自身の因果モデルを構築する。
我々は、このソリューションのdeep rlエージェントのインスタンスであるcausal self-talkを開発した。
CSTはエージェントに時間をかけて自分自身と通信するように訓練することで動作する。
本手法をシミュレートした3次元環境に実装し,エージェントが自己の行動について忠実かつ意味的に説明できることを示す。
説明以外にも、これらの学習モデルがAIシステムにセマンティックコントロールインターフェースを構築する新しい方法を提供することも示しています。
関連論文リスト
- Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Brittle AI, Causal Confusion, and Bad Mental Models: Challenges and
Successes in the XAI Program [17.52385105997044]
ディープニューラルネットワーク駆動モデルは、ベンチマークの自律性タスクにおいて、人間レベルのパフォーマンスを上回っている。
しかし、これらのエージェントの根底にあるポリシーは容易には解釈できない。
本稿では,これらの取組みの起源を論じ,情報の増幅と今後の課題について提案する。
論文 参考訳(メタデータ) (2021-06-10T05:21:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。