論文の概要: Improvement-Focused Causal Recourse (ICR)
- arxiv url: http://arxiv.org/abs/2210.15709v1
- Date: Thu, 27 Oct 2022 18:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:30:02.090797
- Title: Improvement-Focused Causal Recourse (ICR)
- Title(参考訳): 改善焦点因果関係(ICR)
- Authors: Gunnar K\"onig, Timo Freiesleben, Moritz Grosse-Wentrup
- Abstract要約: 改善焦点因果関係(ICR)
我々は、因果的知識を、正確に事前および事後予測する意思決定システムの設計に活用する。
我々は、正しい因果知識が与えられ、ICRは受け入れと改善の両方に導かれることを実証する。
- 参考スコア(独自算出の注目度): 0.7243632426715939
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Algorithmic recourse recommendations, such as Karimi et al.'s (2021) causal
recourse (CR), inform stakeholders of how to act to revert unfavourable
decisions. However, some actions lead to acceptance (i.e., revert the model's
decision) but do not lead to improvement (i.e., may not revert the underlying
real-world state). To recommend such actions is to recommend fooling the
predictor. We introduce a novel method, Improvement-Focused Causal Recourse
(ICR), which involves a conceptual shift: Firstly, we require ICR
recommendations to guide towards improvement. Secondly, we do not tailor the
recommendations to be accepted by a specific predictor. Instead, we leverage
causal knowledge to design decision systems that predict accurately pre- and
post-recourse. As a result, improvement guarantees translate into acceptance
guarantees. We demonstrate that given correct causal knowledge, ICR, in
contrast to existing approaches, guides towards both acceptance and
improvement.
- Abstract(参考訳): Karimi et al.(2021)の因果関係(CR)のようなアルゴリズムによるレコメンデーションは、不必要な決定を逆転する方法をステークホルダーに通知する。
しかし、いくつかのアクションは受け入れられる(つまり、モデルの決定を逆転させる)が、改善にはつながりません(つまり、基礎となる現実世界の状態は戻らない)。
このような行動を推奨するには、予測者を騙すことを推奨する。
本稿では,概念シフトを伴う新しい手法である改善重視因果リコース(icr)について紹介する。
第二に、特定の予測者によって受け入れられる推奨事項を調整しない。
その代わり、私たちは因果知識を利用して、正確な事前および事後予測を行う意思決定システムを設計します。
その結果、改善保証は受け入れ保証に変換される。
我々は、既存のアプローチとは対照的に、正しい因果知識であるICRが、受け入れと改善の両方の指針であることを実証する。
関連論文リスト
- Calibrated Probabilistic Forecasts for Arbitrary Sequences [58.54729945445505]
実際のデータストリームは、分散シフトやフィードバックループ、敵アクターによって予測不可能に変化する可能性がある。
データがどのように進化するかに関わらず、有効な不確実性推定を保証するための予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T21:46:42Z) - CSRec: Rethinking Sequential Recommendation from A Causal Perspective [25.69446083970207]
シーケンシャルなレコメンデータシステム(RecSys)の本質は、ユーザが意思決定を行う方法を理解することです。
我々は、CSRec(Causal Sequential Recommendation)と呼ばれる、シーケンシャルレコメンデーションの新しい定式化を提案する。
CSRecは、シーケンシャルなコンテキスト内で推奨項目が受け入れられる確率を予測し、現在の決定がどのようになされるかをバックトラックすることを目的としている。
論文 参考訳(メタデータ) (2024-08-23T23:19:14Z) - Revisiting Reciprocal Recommender Systems: Metrics, Formulation, and Method [60.364834418531366]
RRSの性能を包括的かつ正確に評価する5つの新しい評価指標を提案する。
因果的観点からRSを定式化し、二元的介入として勧告を定式化する。
提案手法では,結果の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T07:21:02Z) - Practical and Robust Safety Guarantees for Advanced Counterfactual Learning to Rank [64.44255178199846]
我々は、既存の安全CLTRアプローチを一般化し、最先端の2重ロバストCLTRに適用する。
また,ユーザ行動に関する仮定を伴わずにデプロイの安全性を提供するPRPO(proximal ranking Policy Optimization)を提案する。
PRPOは、デプロイ時に無条件の安全性を持つ最初の方法であり、現実世界のアプリケーションの堅牢な安全性に変換される。
論文 参考訳(メタデータ) (2024-07-29T12:23:59Z) - Algorithmic Assistance with Recommendation-Dependent Preferences [2.864550757598007]
選択に影響を及ぼすアルゴリズムレコメンデーションの効果と設計について考察する。
我々は、レコメンデーションに依存した選好が、意思決定者がレコメンデーションに過度に反応する非効率性を生み出すことを示す。
論文 参考訳(メタデータ) (2022-08-16T09:24:47Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - An AGM Approach to Revising Preferences [7.99536002595393]
本稿では,2つの要素間の相互作用から生じる選好変化について考察する。1つ目は,既存姿勢を符号化した初期選好ランキングであり,もう1つは権威源からの入力を示す新たな選好情報である。
目的は、必要以上の情報を捨てることなく、最初の好みを調整し、新しい好みに合わせることである。
我々は、このプロセスを、よく知られたAGMアプローチのラインに沿って、形式的な信念変化の機械を用いてモデル化する。
論文 参考訳(メタデータ) (2021-12-28T18:12:57Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - A Causal Perspective on Meaningful and Robust Algorithmic Recourse [1.0804061924593267]
一般的に、MLモデルは介入分布においてうまく予測できない。
本稿では,予測と目標の両方を改善する行動のみを推奨する有意義なアルゴリズム・リコース(MAR)を提案する。
論文 参考訳(メタデータ) (2021-07-16T12:37:54Z) - Reward Constrained Interactive Recommendation with Natural Language
Feedback [158.8095688415973]
制約強化強化学習(RL)フレームワークを提案する。
具体的には,ユーザの過去の嗜好に反するレコメンデーションを検出するために,識別器を利用する。
提案するフレームワークは汎用的であり,制約付きテキスト生成のタスクにさらに拡張されている。
論文 参考訳(メタデータ) (2020-05-04T16:23:34Z) - Corruption-robust exploration in episodic reinforcement learning [76.19192549843727]
本研究は, システムにおける報酬と遷移確率の両面において, 敵対的腐敗下での多段階・多段階・多段階強化学習について検討した。
我々の枠組みは、汚職の欠如をほぼ最適に後悔する効率的なアルゴリズムをもたらす。
特に,本研究は,根本的強化学習のためのBandit-Feedbackモデルにおいて,純粋にI.d.遷移からの逸脱を保証した最初のサブ線形後悔の保証を提供する。
論文 参考訳(メタデータ) (2019-11-20T03:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。