論文の概要: Generating Context-Aware Contrastive Explanations in Rule-based Systems
- arxiv url: http://arxiv.org/abs/2402.13000v1
- Date: Tue, 20 Feb 2024 13:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 15:06:37.417123
- Title: Generating Context-Aware Contrastive Explanations in Rule-based Systems
- Title(参考訳): ルールベースシステムにおける文脈対応コントラスト記述の生成
- Authors: Lars Herbold, Mersedeh Sadeghi, Andreas Vogelsang
- Abstract要約: 本稿では,ルールベースのシステムにおいて,ユーザが説明を求める状況において,潜在的なコントラストイベントを予測するアプローチを提案する。
提案手法では,説明が必要な状況を分析し,ユーザが観察したものではなく,ユーザが期待したであろう最も可能性の高いルールを選択する。
このコントラスト的なイベントは、ユーザに提示されるコントラスト的な説明を作成するために使用される。
- 参考スコア(独自算出の注目度): 2.497044167437633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human explanations are often contrastive, meaning that they do not answer the
indeterminate "Why?" question, but instead "Why P, rather than Q?".
Automatically generating contrastive explanations is challenging because the
contrastive event (Q) represents the expectation of a user in contrast to what
happened. We present an approach that predicts a potential contrastive event in
situations where a user asks for an explanation in the context of rule-based
systems. Our approach analyzes a situation that needs to be explained and then
selects the most likely rule a user may have expected instead of what the user
has observed. This contrastive event is then used to create a contrastive
explanation that is presented to the user. We have implemented the approach as
a plugin for a home automation system and demonstrate its feasibility in four
test scenarios.
- Abstract(参考訳): 人間の説明はしばしば対比的であり、不確定な「なぜ」の質問には答えないが、代わりに「なぜ p は q ではなく p なのか」である。
コントラストイベント(Q)は、何が起こったかとは対照的に、ユーザの期待を表すため、コントラスト説明の自動生成は困難である。
本稿では,ルールベースのシステムにおいて,ユーザが説明を求める状況において,潜在的なコントラストイベントを予測するアプローチを提案する。
提案手法では,説明が必要な状況を分析し,ユーザが観察したものではなく,ユーザが期待したであろう最も可能性の高いルールを選択する。
このコントラストなイベントは、ユーザに提示されるコントラスト的な説明を作成するために使用される。
我々はこのアプローチをホームオートメーションシステムのプラグインとして実装し,4つのテストシナリオで実現可能性を示す。
関連論文リスト
- Explaining the (Not So) Obvious: Simple and Fast Explanation of STAN, a Next Point of Interest Recommendation System [0.5796859155047135]
いくつかの機械学習手法は本質的に説明可能であるため、完全にブラックボックスではない。
これによって開発者は、複雑で高価な説明可能性技術を開発することなく、アウトプットを理解することができる。
我々は、協調フィルタリングとシーケンス予測に基づく次の関心点推薦システムSTANにおいて、この哲学/パラダイムを実証する。
論文 参考訳(メタデータ) (2024-10-04T18:14:58Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - On Interactive Explanations as Non-Monotonic Reasoning [10.616061367794385]
我々は、説明を推論の対象となる対象として扱う。
本稿では,ユーザとシステム間の対話シナリオの形式モデルを提案する。
このことは、1)特異性関係のような説明の不整合を解決し、2)非単調な推論文学からの性質を考察し、それらの望ましくないことを議論することを可能にする。
論文 参考訳(メタデータ) (2022-07-30T22:08:35Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Human Evaluation of Spoken vs. Visual Explanations for Open-Domain QA [22.76153284711981]
本研究は,ODQAシステムの回答をいつ受理するか,拒否するかをユーザが正確に判断するのに役立つかを検討する。
その結果,得られたエビデンスパスから得られた説明は,モダリティ間で強いベースライン(校正信頼度)を上回る可能性が示唆された。
我々は,現在の説明に共通する障害事例を示し,説明のエンドツーエンド評価を強調し,デプロイと異なるプロキシモダリティで評価することを警告する。
論文 参考訳(メタデータ) (2020-12-30T08:19:02Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Toward Machine-Guided, Human-Initiated Explanatory Interactive Learning [9.887110107270196]
最近の研究は、ブラックボックスモデルの理解と監視のために、局所的な説明と活発な学習を組み合わせるという約束を実証している。
ここでは、特定の条件下では、これらのアルゴリズムが学習されるモデルの質を誤って表現する可能性があることを示す。
説明的指導型学習を導入することで、この物語バイアスに対処する。
論文 参考訳(メタデータ) (2020-07-20T11:51:31Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。