論文の概要: Tell Me Why: Incentivizing Explanations
- arxiv url: http://arxiv.org/abs/2502.13410v1
- Date: Wed, 19 Feb 2025 03:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:58:59.091563
- Title: Tell Me Why: Incentivizing Explanations
- Title(参考訳): 理由を教えてください:説明のインセンティブ
- Authors: Siddarth Srinivasan, Ezra Karger, Michiel Bakker, Yiling Chen,
- Abstract要約: エージェントからの信念を説明するインセンティブを提供するメカニズムは知られていない。
標準ベイズモデルは説明の必要性を抑える仮定を作る。
この研究は、エージェントのプライベート情報リーダーによるより効率的なアグリゲーションへの合理的な説明を論じている。
- 参考スコア(独自算出の注目度): 3.2754470919268543
- License:
- Abstract: Common sense suggests that when individuals explain why they believe something, we can arrive at more accurate conclusions than when they simply state what they believe. Yet, there is no known mechanism that provides incentives to elicit explanations for beliefs from agents. This likely stems from the fact that standard Bayesian models make assumptions (like conditional independence of signals) that preempt the need for explanations, in order to show efficient information aggregation. A natural justification for the value of explanations is that agents' beliefs tend to be drawn from overlapping sources of information, so agents' belief reports do not reveal all that needs to be known. Indeed, this work argues that rationales-explanations of an agent's private information-lead to more efficient aggregation by allowing agents to efficiently identify what information they share and what information is new. Building on this model of rationales, we present a novel 'deliberation mechanism' to elicit rationales from agents in which truthful reporting of beliefs and rationales is a perfect Bayesian equilibrium.
- Abstract(参考訳): 一般的な感覚は、個人が何かを信じる理由を説明すると、単に信じることを述べる時よりも、より正確な結論に達することを示唆している。
しかし、エージェントからの信念を説明するインセンティブを提供するメカニズムは知られていない。
これはおそらく、標準的なベイズ模型が、効率的な情報集約を示すために説明の必要性を抑える仮定(例えば信号の条件独立)を行うという事実に起因している。
説明の価値の自然な正当化は、エージェントの信念が重複する情報ソースから引き出される傾向があるため、エージェントの信念報告は、エージェントが知る必要があるすべてのことを明らかにしないということである。
実際、この研究は、エージェントがどの情報を共有し、どの情報が新しくあるかを効率的に特定できるようにすることにより、エージェントのプライベート情報リードの合理的な説明がより効率的な集約に繋がると主張している。
この合理性のモデルに基づいて、信念と合理性の真理的な報告が完全なベイズ均衡となるエージェントから合理性を引き出す新しい「検討機構」を提案する。
関連論文リスト
- Counterfactual Explanations as Plans [6.445239204595516]
我々は、アクションシーケンスの観点で、対実的説明の正式な説明を提供する。
エージェントのモデルを修正したり、エージェントの計画にアクションを提案したりすることで、モデル和解の理由を自然に示します。
論文 参考訳(メタデータ) (2025-02-13T11:45:54Z) - Uncommon Belief in Rationality [23.98373492872004]
本稿では,エージェントが他のエージェントの合理性について持つであろう高次信念をグラフベースで表現する言語を提案する。
2つの主な貢献は、与えられた信念構造に基づく推論過程をキャプチャする解の概念と、任意の信念構造をユニークな最小の形式に圧縮する効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2024-12-12T16:12:40Z) - Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - Eliminating The Impossible, Whatever Remains Must Be True [46.39428193548396]
より簡潔な「なぜ」形式的な説明をするために背景知識を適用する方法を示す。
また,既存のルール誘導手法を用いて,データセットから背景情報を効率的に抽出する方法を示す。
論文 参考訳(メタデータ) (2022-06-20T03:18:14Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Properties from Mechanisms: An Equivariance Perspective on Identifiable
Representation Learning [79.4957965474334]
教師なし表現学習の主な目標は、データ生成プロセスが潜在プロパティを回復するために「反転」することである。
この論文は「進化を支配するメカニズムの知識を活用して潜伏特性を識別するのか?」と問う。
我々は、可能なメカニズムの集合に関する知識が異なるため、不特定性の原因の完全な特徴づけを提供する。
論文 参考訳(メタデータ) (2021-10-29T14:04:08Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Empirically Verifying Hypotheses Using Reinforcement Learning [58.09414653169534]
本稿では,仮説検証をRL問題として定式化する。
我々は、世界の力学に関する仮説を前提として、仮説が真か偽かを予測するのに役立つ観測結果を生成することができるエージェントを構築することを目指している。
論文 参考訳(メタデータ) (2020-06-29T01:01:10Z) - Towards the Role of Theory of Mind in Explanation [23.818659473644505]
心の理論とは、精神状態(信念、目標など)を自分自身や他者に与える能力である。
以前の研究は、心の理論が他のエージェントに説明を提供する中心にあることを観察してきた。
論文 参考訳(メタデータ) (2020-05-06T17:13:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。