論文の概要: Strategic Learning with Local Explanations as Feedback
- arxiv url: http://arxiv.org/abs/2502.04058v1
- Date: Thu, 06 Feb 2025 13:17:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:32:53.733002
- Title: Strategic Learning with Local Explanations as Feedback
- Title(参考訳): 局所的説明をフィードバックとした戦略的学習
- Authors: Kiet Q. H. Vo, Siu Lun Chau, Masahiro Kato, Yixin Wang, Krikamol Muandet,
- Abstract要約: アクションレコメンデーション(AR)に基づく説明は、有害な応答に十分である。
エージェント福祉とDM結果のバランスをとるために,予測モデルとARポリシーを協調的に最適化する簡単なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 29.57116418734347
- License:
- Abstract: We investigate algorithmic decision problems where agents can respond strategically to the decision maker's (DM) models. The demand for clear and actionable explanations from DMs to (potentially strategic) agents continues to rise. While prior work often treats explanations as full model disclosures, explanations in practice might convey only partial information, which can lead to misinterpretations and harmful responses. When full disclosure of the predictive model is neither feasible nor desirable, a key open question is how DMs can use explanations to maximise their utility without compromising agent welfare. In this work, we explore well-known local and global explanation methods, and establish a necessary condition to prevent explanations from misleading agents into self-harming actions. Moreover, with conditional homogeneity, we establish that action recommendation (AR)-based explanations are sufficient for non-harmful responses, akin to the revelation principle in information design. To operationalise AR-based explanations, we propose a simple algorithm to jointly optimise the predictive model and AR policy to balance DM outcomes with agent welfare. Our empirical results demonstrate the benefits of this approach as a more refined strategy for safe and effective partial model disclosure in algorithmic decision-making.
- Abstract(参考訳): 本稿では,エージェントが意思決定者モデル(DM)に戦略的に対応できるアルゴリズム決定問題について検討する。
DMから(潜在的に戦略的に)エージェントへの明確で実用的な説明の要求は上昇し続けている。
先行研究はしばしば説明を完全なモデル開示として扱うが、実際には説明は部分的な情報のみを伝達し、誤解釈や有害な反応を引き起こす可能性がある。
予測モデルの完全な開示が実現可能でも望ましくない場合、DMがエージェントの福祉を損なうことなく、どのように説明を最大限に活用できるかが重要な疑問である。
本研究では、よく知られた地域的・グローバルな説明手法を探求し、誤解を招くエージェントから自己修復行動への説明を避けるために必要な条件を確立する。
さらに, 条件の均一性により, 情報設計における啓示原理に類似した, 非害応答に対して, 行動推薦に基づく説明が十分であることを示す。
本稿では, エージェント福祉とDM結果のバランスをとるために, 予測モデルとARポリシーを協調的に最適化する簡単なアルゴリズムを提案する。
我々の経験的結果は、アルゴリズムによる意思決定において、安全かつ効果的な部分的モデル開示のためのより洗練された戦略として、このアプローチの利点を実証している。
関連論文リスト
- On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.752418052725126]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - Robust Explainable Recommendation [10.186029242664931]
本稿では,外部攻撃に耐えられる機能対応型レコメンデータの汎用フレームワークを提案する。
私たちのフレームワークは、モデルの内部構造や本質的なユーティリティに関係なく、実装が簡単で、異なるメソッドをサポートします。
論文 参考訳(メタデータ) (2024-05-03T05:03:07Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications [70.92379567261304]
本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
論文 参考訳(メタデータ) (2021-06-16T23:46:39Z) - Feature-Based Interpretable Reinforcement Learning based on
State-Transition Models [3.883460584034766]
現実世界でのAIモデルの運用に関する懸念が高まり、AIモデルの決定を人間に説明することへの関心が高まっています。
強化学習におけるリスクに関する局所的な説明方法を提案する。
論文 参考訳(メタデータ) (2021-05-14T23:43:11Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z) - Decisions, Counterfactual Explanations and Strategic Behavior [16.980621769406923]
戦略的な設定で実用性の観点から最適な政策と対実的な説明を見つける。
事前に定義されたポリシーを考えると、最適の対実的説明の集合を見つける問題はNPハードであることが示される。
本研究では,マトロイド制約を問題定式化に組み込むことで,最適対実的説明セットの多様性を高めることができることを示した。
論文 参考訳(メタデータ) (2020-02-11T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。