論文の概要: ShaRP: Explaining Rankings with Shapley Values
- arxiv url: http://arxiv.org/abs/2401.16744v1
- Date: Tue, 30 Jan 2024 04:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:05:47.708054
- Title: ShaRP: Explaining Rankings with Shapley Values
- Title(参考訳): ShaRP: 共有価値でランクを説明する
- Authors: Venetia Pliatsika and Joao Fonseca and Tilun Wang and Julia
Stoyanovich
- Abstract要約: 私たちは、ランク付けされた結果の異なる側面に対する機能の貢献を説明するフレームワークであるShaRPを紹介します。
ShaRPはQuantical Input Influenceフレームワーク上に構築されており、複数の関心の量に対する機能のコントリビューションを計算することができる。
- 参考スコア(独自算出の注目度): 7.915714424668589
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic decisions in critical domains such as hiring, college admissions,
and lending are often based on rankings. Because of the impact these decisions
have on individuals, organizations, and population groups, there is a need to
understand them: to know whether the decisions are abiding by the law, to help
individuals improve their rankings, and to design better ranking procedures.
In this paper, we present ShaRP (Shapley for Rankings and Preferences), a
framework that explains the contributions of features to different aspects of a
ranked outcome, and is based on Shapley values. Using ShaRP, we show that even
when the scoring function used by an algorithmic ranker is known and linear,
the weight of each feature does not correspond to its Shapley value
contribution. The contributions instead depend on the feature distributions,
and on the subtle local interactions between the scoring features. ShaRP builds
on the Quantitative Input Influence framework, and can compute the
contributions of features for multiple Quantities of Interest, including score,
rank, pair-wise preference, and top-k. Because it relies on black-box access to
the ranker, ShaRP can be used to explain both score-based and learned ranking
models. We show results of an extensive experimental validation of ShaRP using
real and synthetic datasets, showcasing its usefulness for qualitative
analysis.
- Abstract(参考訳): 雇用、大学入学、貸付といった重要な分野におけるアルゴリズム的決定は、しばしばランキングに基づいている。
これらの決定が個人、組織、人口集団に影響を及ぼすため、それらを理解する必要がある: 決定が法律に従っているかどうかを知るため、個人がランクを上げるのを助けるため、より良いランク付け手順を設計するためである。
本稿では,評価結果の異なる側面に対する特徴の寄与を説明するフレームワークであるsharp(shapley for rankings and preferences)を提案する。
ShaRPを用いて,アルゴリズムのランク付けで用いられるスコアリング関数が線形である場合でも,各特徴の重みがShapley値の寄与と一致しないことを示す。
その代わりに、コントリビューションは、特徴分布と、スコアリング特徴間の微妙な局所的な相互作用に依存する。
ShaRPはQuantical Input Influenceフレームワーク上に構築されており、スコア、ランク、ペアワイドの好み、トップkなど、複数の関心の量のための機能のコントリビューションを計算することができる。
ランク付けのブラックボックスアクセスに依存するため、スコアベースと学習されたランキングモデルの両方を説明するためにShaRPを使用することができる。
実データと合成データを用いて,ShaRPの実験的検証を行い,定性解析に有用であることを示す。
関連論文リスト
- Learning when to rank: Estimation of partial rankings from sparse, noisy comparisons [0.0]
偏位を学習するための原理的ベイズ手法を開発した。
我々の枠組みはいかなる統計的ランキング法にも適応できる。
従来のランキングよりも、データの微妙な要約が提供される。
論文 参考訳(メタデータ) (2025-01-05T11:04:30Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Full Stage Learning to Rank: A Unified Framework for Multi-Stage Systems [40.199257203898846]
我々は,多段階システム,すなわちGPRP(Generalized Probability Ranking Principle)のための改良されたランキング原理を提案する。
GPRPは、システムパイプラインの各ステージにおける選択バイアスと、ユーザの基本的な関心の両方を強調している。
我々の中核的な考え方は、まず次の段階における選択バイアスを推定し、次に下流モジュールの選択バイアスに最もよく適合するランキングモデルを学ぶことである。
論文 参考訳(メタデータ) (2024-05-08T06:35:04Z) - RankSHAP: Shapley Value Based Feature Attributions for Learning to Rank [28.438428292619577]
我々は、機能属性コミュニティで人気がある軸論的ゲーム理論のアプローチを採用し、全てのランク付けベースの特徴属性メソッドが満足すべき基本公理のセットを特定する。
次にRang-SHAPを導入し、古典的なShapley値をランキングに拡張します。
また、既存の帰属アルゴリズムの公理解析を行い、提案した公理に準拠するかどうかを判断する。
論文 参考訳(メタデータ) (2024-05-03T04:43:24Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Explainable Disparity Compensation for Efficient Fair Ranking [0.3759936323189418]
意思決定システムで使用されるランク付け関数は、基礎となるデータに偏りがあるため、異なる集団に対して異なる結果をもたらすことが多い。
最近の補償策は主に、公正性を保証するためにランク関数の不透明な変換に焦点を当てている。
本稿では,ランキング関数に対するデータ駆動型補償法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:12:50Z) - Learning List-Level Domain-Invariant Representations for Ranking [59.3544317373004]
リストレベルのアライメント -- より高いレベルのリストでドメイン不変表現を学習する。
利点は2つある: これは、ランク付けに縛られる最初のドメイン適応の一般化をもたらし、その結果、提案法に対する理論的支援を提供する。
論文 参考訳(メタデータ) (2022-12-21T04:49:55Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。