論文の概要: Personalized Algorithmic Recourse with Preference Elicitation
- arxiv url: http://arxiv.org/abs/2205.13743v5
- Date: Tue, 23 Jan 2024 17:53:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 20:17:46.493712
- Title: Personalized Algorithmic Recourse with Preference Elicitation
- Title(参考訳): 嗜好誘発を伴うパーソナライズされたアルゴリズムリアクション
- Authors: Giovanni De Toni, Paolo Viappiani, Stefano Teso, Bruno Lepri, Andrea
Passerini
- Abstract要約: PEARは、エンドユーザーのニーズに合わせてパーソナライズされたアルゴリズムの講義を提供する。
PEARは、ベイジアン選好引用からの洞察に基づいて、ターゲットユーザに対して選択セットクエリを尋ねることで、アクションのコストを反復的に見積もる。
実世界のデータセットに対する実証的な評価は、PEARがいかに高品質なパーソナライズされたリコースをほんの数イテレーションで生成するかを強調します。
- 参考スコア(独自算出の注目度): 20.78332455864586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic Recourse (AR) is the problem of computing a sequence of actions
that -- once performed by a user -- overturns an undesirable machine decision.
It is paramount that the sequence of actions does not require too much effort
for users to implement. Yet, most approaches to AR assume that actions cost the
same for all users, and thus may recommend unfairly expensive recourse plans to
certain users. Prompted by this observation, we introduce PEAR, the first
human-in-the-loop approach capable of providing personalized algorithmic
recourse tailored to the needs of any end-user. PEAR builds on insights from
Bayesian Preference Elicitation to iteratively refine an estimate of the costs
of actions by asking choice set queries to the target user. The queries
themselves are computed by maximizing the Expected Utility of Selection, a
principled measure of information gain accounting for uncertainty on both the
cost estimate and the user's responses. PEAR integrates elicitation into a
Reinforcement Learning agent coupled with Monte Carlo Tree Search to quickly
identify promising recourse plans. Our empirical evaluation on real-world
datasets highlights how PEAR produces high-quality personalized recourse in
only a handful of iterations.
- Abstract(参考訳): algorithmic recourse (ar) は、ユーザが一度実行したアクションのシーケンスを計算することで、望ましくないマシン決定を覆す問題である。
アクションのシーケンスはユーザが実装するために必要な労力をあまり必要としないのが最重要視されている。
しかし、ARに対するほとんどのアプローチは、アクションがすべてのユーザにとって同じコストであると考えており、そのため特定のユーザに不公平に高価なリコースプランを推奨する可能性がある。
この観察から得られたPEARは、エンドユーザーのニーズに合わせてパーソナライズされたアルゴリズムによるリコースを提供する最初の人道支援手法である。
PEARは、ベイジアン選好引用からの洞察に基づいて、ターゲットユーザに対して選択セットクエリを尋ねることで、アクションのコストを反復的に見積もる。
クエリ自体は、コスト見積とユーザの応答の両方について不確実性を考慮した情報ゲインの原則尺度である選択の期待効用を最大化することによって計算される。
PEARは、Reinforcement LearningエージェントとMonte Carlo Tree Searchを統合して、有望なリコース計画を素早く特定する。
実世界のデータセットに対する実証的な評価は、PEARがいかに高品質なパーソナライズされたリコースをほんの数イテレーションで生成するかを強調します。
関連論文リスト
- Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - Learning Recourse Costs from Pairwise Feature Comparisons [22.629956883958076]
本稿では,ユーザの好みを学習し,推測する際にユーザ入力を組み込む新しい手法を提案する。
我々はBradley-Terryモデルを用いて,非排他的人間比較調査を用いて特徴量コストを自動的に推定する手法を提案する。
MAP推定値を用いて,個々の特徴コストを効率よく学習し,これらの非排他的人為的調査が特徴コストの総括的集合を学習するのに十分であることを示す。
論文 参考訳(メタデータ) (2024-09-20T23:04:08Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いたQPPフレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
これにより、生成した関連判断を擬似ラベルとして利用して、任意のIR評価尺度を予測することができる。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - Towards User Guided Actionable Recourse [5.669106489320257]
Actionable Recourse (AR)は、ユーザの行動可能な機能に対するコスト効率の高い変更を推奨し、望ましい結果を得るのに役立つ。
ユーザ優先行動規範(UP-AR)を特定するための勾配に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T18:06:09Z) - Should All Proposals be Treated Equally in Object Detection? [110.27485090952385]
オブジェクト検出器の複雑さと精度のトレードオフは、リソース制約されたビジョンタスクにとって重要な問題である。
検出効率の改善には、提案の不平等な処理に向けて、パラダイムシフトが必要であると仮定されている。
これにより、利用可能な計算予算がより有効になり、同じFLOPSの精度が向上する。
論文 参考訳(メタデータ) (2022-07-07T18:26:32Z) - Incentivizing Combinatorial Bandit Exploration [87.08827496301839]
自己関心のあるユーザに対してレコメンデーションシステムでアクションを推奨するバンディットアルゴリズムを考える。
ユーザーは他のアクションを自由に選択でき、アルゴリズムの推奨に従うためにインセンティブを得る必要がある。
ユーザは悪用を好むが、アルゴリズムは、前のユーザから収集した情報を活用することで、探索にインセンティブを与えることができる。
論文 参考訳(メタデータ) (2022-06-01T13:46:25Z) - Counterfactual Learning To Rank for Utility-Maximizing Query
Autocompletion [40.31426350180036]
本稿では,ダウンストリーム検索性能に対するクエリ提案を明示的に最適化する手法を提案する。
ここでは、各クエリ提案が生成するダウンストリームアイテムランキングによって表現されるランキングの集合をランク付けする問題として、これを定式化する。
次に,項目ランクの質によってクエリ提案をランク付けする学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-22T21:40:51Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Function Design for Improved Competitive Ratio in Online Resource
Allocation with Procurement Costs [16.68130648568593]
私たちは、複数の顧客が到着するオンラインリソースアロケーションの問題を研究し、売り手は、合計アロケーションのための調達コストに直面しながら、各受信顧客にリソースを割り当てなければなりません。
論文 参考訳(メタデータ) (2020-12-23T02:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。