論文の概要: Bridging the Gap: Providing Post-Hoc Symbolic Explanations for
Sequential Decision-Making Problems with Inscrutable Representations
- arxiv url: http://arxiv.org/abs/2002.01080v4
- Date: Sat, 19 Mar 2022 22:47:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 03:08:26.345232
- Title: Bridging the Gap: Providing Post-Hoc Symbolic Explanations for
Sequential Decision-Making Problems with Inscrutable Representations
- Title(参考訳): ギャップを埋める: 探索的表現を伴う逐次決定問題に対するポストホック記号表現の提案
- Authors: Sarath Sreedharan, Utkarsh Soni, Mudit Verma, Siddharth Srivastava,
Subbarao Kambhampati
- Abstract要約: 本稿では、逐次的意思決定設定のためのユーザ特定概念の観点から、コントラスト的な説明を提供する手法を提案する。
ユーザクエリに応答するために利用可能なタスクの局所近似の部分的記号モデルを構築することで、これを実現する。
- 参考スコア(独自算出の注目度): 44.016120003139264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As increasingly complex AI systems are introduced into our daily lives, it
becomes important for such systems to be capable of explaining the rationale
for their decisions and allowing users to contest these decisions. A
significant hurdle to allowing for such explanatory dialogue could be the
vocabulary mismatch between the user and the AI system. This paper introduces
methods for providing contrastive explanations in terms of user-specified
concepts for sequential decision-making settings where the system's model of
the task may be best represented as an inscrutable model. We do this by
building partial symbolic models of a local approximation of the task that can
be leveraged to answer the user queries. We test these methods on a popular
Atari game (Montezuma's Revenge) and variants of Sokoban (a well-known planning
benchmark) and report the results of user studies to evaluate whether people
find explanations generated in this form useful.
- Abstract(参考訳): ますます複雑なAIシステムが私たちの日常生活に導入されるにつれて、そうしたシステムが意思決定の根拠を説明し、ユーザがこれらの決定に異議を唱えることを可能にすることが重要になる。
このような説明対話を可能にするための大きなハードルは、ユーザとAIシステム間の語彙ミスマッチである可能性がある。
本稿では,タスクのシステムモデルが不明瞭なモデルとして最もよく表現されるような逐次的意思決定設定において,ユーザ特定概念の観点で対比的な説明を提供する手法を提案する。
ユーザクエリに応答するために利用可能なタスクの局所近似の部分的記号モデルを構築することで、これを実現する。
本手法は,一般的なアタリゲーム(Montezuma's Revenge)と,そこばんの変種(よく知られた計画ベンチマーク)を用いてテストし,ユーザスタディの結果を報告する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Towards Large-Scale Interpretable Knowledge Graph Reasoning for Dialogue
Systems [109.16553492049441]
よりスケーラブルで一般化可能な対話システムに知識推論機能を組み込む新しい手法を提案する。
我々の知識を最大限に活用するために、変圧器モデルが微分可能な知識グラフを解析して応答を生成するのは、これが初めてである。
論文 参考訳(メタデータ) (2022-03-20T17:51:49Z) - SMACE: A New Method for the Interpretability of Composite Decision
Systems [3.1542695050861544]
決定システムのための新しい解釈可能性手法であるSMACE, Semi-Model-Agnostic Contextual Explainerを提案する。
確立されたモデルに依存しないアプローチが、このフレームワークで不十分な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-11-16T19:37:35Z) - Learning User-Interpretable Descriptions of Black-Box AI System
Capabilities [9.608555640607731]
本稿では,ブラックボックスAIシステムの限界と能力について,ユーザ解釈可能な記号記述を学習するためのアプローチを提案する。
階層的なアクティブクエリパラダイムを使用して質問を生成し、その応答に基づいてAIシステムのユーザ解釈可能なモデルを学ぶ。
論文 参考訳(メタデータ) (2021-07-28T23:33:31Z) - Dissecting Generation Modes for Abstractive Summarization Models via
Ablation and Attribution [34.2658286826597]
本稿では,要約モデル決定を解釈する2段階の手法を提案する。
まず、各デコーダ決定を複数の生成モードの1つに分類するために、モデル全体を非難することでモデルの振舞いを解析する。
入力に依存する決定を分離した後、いくつかの異なる帰属法を用いてこれらの決定を解釈する。
論文 参考訳(メタデータ) (2021-06-03T00:54:16Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Altruist: Argumentative Explanations through Local Interpretations of
Predictive Models [10.342433824178825]
既存の説明技法はエンドユーザには理解できないことが多い。
本稿では,特徴重視の解釈の真相を識別する予備的メタ説明手法を提案する。
実験は、複数の解釈技法のアンサンブルが、より真理的な説明をもたらすことを強く示唆している。
論文 参考訳(メタデータ) (2020-10-15T10:36:48Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。