論文の概要: Explanation Design in Strategic Learning: Sufficient Explanations that Induce Non-harmful Responses
- arxiv url: http://arxiv.org/abs/2502.04058v2
- Date: Wed, 28 May 2025 14:05:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 15:04:27.240147
- Title: Explanation Design in Strategic Learning: Sufficient Explanations that Induce Non-harmful Responses
- Title(参考訳): 戦略的学習における説明設計:無害反応を誘発する十分な説明
- Authors: Kiet Q. H. Vo, Siu Lun Chau, Masahiro Kato, Yixin Wang, Krikamol Muandet,
- Abstract要約: 鍵となる疑問は、DMが戦略エージェントに害を与えないように説明を伝達する方法である。
行動推奨に基づく説明(ARexes)は、有害な応答に十分であることを示す。
実験により、ARexesは、エージェントのユーティリティを保ちながら、DMがモデルの予測性能を最適化できることが示されている。
- 参考スコア(独自算出の注目度): 29.57116418734347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study explanation design in algorithmic decision making with strategic agents, individuals who may modify their inputs in response to explanations of a decision maker's (DM's) predictive model. As the demand for transparent algorithmic systems continues to grow, most prior work assumes full model disclosure as the default solution. In practice, however, DMs such as financial institutions typically disclose only partial model information via explanations. Such partial disclosure can lead agents to misinterpret the model and take actions that unknowingly harm their utility. A key open question is how DMs can communicate explanations in a way that avoids harming strategic agents, while still supporting their own decision-making goals, e.g., minimising predictive error. In this work, we analyse well-known explanation methods, and establish a necessary condition to prevent explanations from misleading agents into self-harming actions. Moreover, with a conditional homogeneity assumption, we prove that action recommendation-based explanations (ARexes) are sufficient for non-harmful responses, mirroring the revelation principle in information design. To demonstrate how ARexes can be operationalised in practice, we propose a simple learning procedure that jointly optimises the predictive model and explanation policy. Experiments on synthetic and real-world tasks show that ARexes allow the DM to optimise their model's predictive performance while preserving agents' utility, offering a more refined strategy for safe and effective partial model disclosure.
- Abstract(参考訳): 本稿では,意思決定者予測モデル(DM)の説明に応答して入力を変更可能な,戦略エージェントによるアルゴリズム意思決定における説明設計について検討する。
透過的なアルゴリズムシステムの需要が拡大し続けているため、以前の作業の多くは、完全なモデル開示をデフォルトのソリューションとして想定している。
しかし、実際には、金融機関などのDMは説明を通じて部分的なモデル情報のみを公開するのが一般的である。
このような部分的な開示は、エージェントがモデルを誤って解釈し、その効用を無意識に損なうようなアクションを取ることにつながる。
重要なオープンな疑問は、DMが戦略エージェントに害を与えることなく、予測エラーを最小限に抑えながら、どのように説明を伝達できるかである。
本研究では、よく知られた説明方法を分析し、誤解を招くエージェントから自己修復行動への説明を防止するために必要な条件を確立する。
さらに,条件付き均質性仮定を用いて,情報設計における啓示原理を反映して,行動推薦に基づく説明(ARexes)が無害な応答に十分であることを示す。
本稿では,ARexを実際にどのように運用するかを示すために,予測モデルと説明ポリシーを協調的に最適化する簡単な学習手順を提案する。
合成および実世界のタスクの実験では、ARexesはエージェントの実用性を維持しながらモデルの予測性能を最適化し、安全かつ効果的な部分的モデル開示のためのより洗練された戦略を提供する。
関連論文リスト
- On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.752418052725126]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Robust Explainable Recommendation [10.186029242664931]
本稿では,外部攻撃に耐えられる機能対応型レコメンデータの汎用フレームワークを提案する。
私たちのフレームワークは、モデルの内部構造や本質的なユーティリティに関係なく、実装が簡単で、異なるメソッドをサポートします。
論文 参考訳(メタデータ) (2024-05-03T05:03:07Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications [70.92379567261304]
本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
論文 参考訳(メタデータ) (2021-06-16T23:46:39Z) - Feature-Based Interpretable Reinforcement Learning based on
State-Transition Models [3.883460584034766]
現実世界でのAIモデルの運用に関する懸念が高まり、AIモデルの決定を人間に説明することへの関心が高まっています。
強化学習におけるリスクに関する局所的な説明方法を提案する。
論文 参考訳(メタデータ) (2021-05-14T23:43:11Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Decisions, Counterfactual Explanations and Strategic Behavior [16.980621769406923]
戦略的な設定で実用性の観点から最適な政策と対実的な説明を見つける。
事前に定義されたポリシーを考えると、最適の対実的説明の集合を見つける問題はNPハードであることが示される。
本研究では,マトロイド制約を問題定式化に組み込むことで,最適対実的説明セットの多様性を高めることができることを示した。
論文 参考訳(メタデータ) (2020-02-11T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。