論文の概要: Improvement-Focused Causal Recourse (ICR)
- arxiv url: http://arxiv.org/abs/2210.15709v1
- Date: Thu, 27 Oct 2022 18:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:30:02.090797
- Title: Improvement-Focused Causal Recourse (ICR)
- Title(参考訳): 改善焦点因果関係(ICR)
- Authors: Gunnar K\"onig, Timo Freiesleben, Moritz Grosse-Wentrup
- Abstract要約: 改善焦点因果関係(ICR)
我々は、因果的知識を、正確に事前および事後予測する意思決定システムの設計に活用する。
我々は、正しい因果知識が与えられ、ICRは受け入れと改善の両方に導かれることを実証する。
- 参考スコア(独自算出の注目度): 0.7243632426715939
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic recourse recommendations, such as Karimi et al.'s (2021) causal
recourse (CR), inform stakeholders of how to act to revert unfavourable
decisions. However, some actions lead to acceptance (i.e., revert the model's
decision) but do not lead to improvement (i.e., may not revert the underlying
real-world state). To recommend such actions is to recommend fooling the
predictor. We introduce a novel method, Improvement-Focused Causal Recourse
(ICR), which involves a conceptual shift: Firstly, we require ICR
recommendations to guide towards improvement. Secondly, we do not tailor the
recommendations to be accepted by a specific predictor. Instead, we leverage
causal knowledge to design decision systems that predict accurately pre- and
post-recourse. As a result, improvement guarantees translate into acceptance
guarantees. We demonstrate that given correct causal knowledge, ICR, in
contrast to existing approaches, guides towards both acceptance and
improvement.
- Abstract(参考訳): Karimi et al.(2021)の因果関係(CR)のようなアルゴリズムによるレコメンデーションは、不必要な決定を逆転する方法をステークホルダーに通知する。
しかし、いくつかのアクションは受け入れられる(つまり、モデルの決定を逆転させる)が、改善にはつながりません(つまり、基礎となる現実世界の状態は戻らない)。
このような行動を推奨するには、予測者を騙すことを推奨する。
本稿では,概念シフトを伴う新しい手法である改善重視因果リコース(icr)について紹介する。
第二に、特定の予測者によって受け入れられる推奨事項を調整しない。
その代わり、私たちは因果知識を利用して、正確な事前および事後予測を行う意思決定システムを設計します。
その結果、改善保証は受け入れ保証に変換される。
我々は、既存のアプローチとは対照的に、正しい因果知識であるICRが、受け入れと改善の両方の指針であることを実証する。
関連論文リスト
- Adversarial Batch Inverse Reinforcement Learning: Learn to Reward from
Imperfect Demonstration for Interactive Recommendation [23.048841953423846]
我々は、強化学習の基礎となる報奨学習の問題に焦点をあてる。
従来のアプローチでは、報酬を得るための追加の手順を導入するか、最適化の複雑さを増大させる。
所望の特性を実現するために, バッチ逆強化学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-30T13:43:20Z) - Debiasing Recommendation by Learning Identifiable Latent Confounders [49.16119112336605]
コンバウンディングバイアスは、ユーザの露出とフィードバックの両方に影響を与える未測定変数の存在によって生じる。
既存の手法では,(1) 未測定変数について不確定な仮定を行うか,(2) 潜伏した共同創設者を直接ユーザの露出から推測する。
本稿では、上記の非識別問題の解決にプロキシ変数の集合を利用する新しい方法、すなわち、識別可能なデコノウ(iDCF)を提案する。
論文 参考訳(メタデータ) (2023-02-10T05:10:26Z) - Algorithmic Assistance with Recommendation-Dependent Preferences [2.864550757598007]
選択に影響を及ぼすアルゴリズムレコメンデーションの効果と設計について考察する。
我々は、レコメンデーションに依存した選好が、意思決定者がレコメンデーションに過度に反応する非効率性を生み出すことを示す。
論文 参考訳(メタデータ) (2022-08-16T09:24:47Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - An AGM Approach to Revising Preferences [7.99536002595393]
本稿では,2つの要素間の相互作用から生じる選好変化について考察する。1つ目は,既存姿勢を符号化した初期選好ランキングであり,もう1つは権威源からの入力を示す新たな選好情報である。
目的は、必要以上の情報を捨てることなく、最初の好みを調整し、新しい好みに合わせることである。
我々は、このプロセスを、よく知られたAGMアプローチのラインに沿って、形式的な信念変化の機械を用いてモデル化する。
論文 参考訳(メタデータ) (2021-12-28T18:12:57Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - A Causal Perspective on Meaningful and Robust Algorithmic Recourse [1.0804061924593267]
一般的に、MLモデルは介入分布においてうまく予測できない。
本稿では,予測と目標の両方を改善する行動のみを推奨する有意義なアルゴリズム・リコース(MAR)を提案する。
論文 参考訳(メタデータ) (2021-07-16T12:37:54Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z) - Corruption-robust exploration in episodic reinforcement learning [76.19192549843727]
本研究は, システムにおける報酬と遷移確率の両面において, 敵対的腐敗下での多段階・多段階・多段階強化学習について検討した。
我々の枠組みは、汚職の欠如をほぼ最適に後悔する効率的なアルゴリズムをもたらす。
特に,本研究は,根本的強化学習のためのBandit-Feedbackモデルにおいて,純粋にI.d.遷移からの逸脱を保証した最初のサブ線形後悔の保証を提供する。
論文 参考訳(メタデータ) (2019-11-20T03:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。