論文の概要: ShaRP: Explaining Rankings with Shapley Values
- arxiv url: http://arxiv.org/abs/2401.16744v1
- Date: Tue, 30 Jan 2024 04:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 16:05:47.708054
- Title: ShaRP: Explaining Rankings with Shapley Values
- Title(参考訳): ShaRP: 共有価値でランクを説明する
- Authors: Venetia Pliatsika and Joao Fonseca and Tilun Wang and Julia
Stoyanovich
- Abstract要約: 私たちは、ランク付けされた結果の異なる側面に対する機能の貢献を説明するフレームワークであるShaRPを紹介します。
ShaRPはQuantical Input Influenceフレームワーク上に構築されており、複数の関心の量に対する機能のコントリビューションを計算することができる。
- 参考スコア(独自算出の注目度): 7.915714424668589
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithmic decisions in critical domains such as hiring, college admissions,
and lending are often based on rankings. Because of the impact these decisions
have on individuals, organizations, and population groups, there is a need to
understand them: to know whether the decisions are abiding by the law, to help
individuals improve their rankings, and to design better ranking procedures.
In this paper, we present ShaRP (Shapley for Rankings and Preferences), a
framework that explains the contributions of features to different aspects of a
ranked outcome, and is based on Shapley values. Using ShaRP, we show that even
when the scoring function used by an algorithmic ranker is known and linear,
the weight of each feature does not correspond to its Shapley value
contribution. The contributions instead depend on the feature distributions,
and on the subtle local interactions between the scoring features. ShaRP builds
on the Quantitative Input Influence framework, and can compute the
contributions of features for multiple Quantities of Interest, including score,
rank, pair-wise preference, and top-k. Because it relies on black-box access to
the ranker, ShaRP can be used to explain both score-based and learned ranking
models. We show results of an extensive experimental validation of ShaRP using
real and synthetic datasets, showcasing its usefulness for qualitative
analysis.
- Abstract(参考訳): 雇用、大学入学、貸付といった重要な分野におけるアルゴリズム的決定は、しばしばランキングに基づいている。
これらの決定が個人、組織、人口集団に影響を及ぼすため、それらを理解する必要がある: 決定が法律に従っているかどうかを知るため、個人がランクを上げるのを助けるため、より良いランク付け手順を設計するためである。
本稿では,評価結果の異なる側面に対する特徴の寄与を説明するフレームワークであるsharp(shapley for rankings and preferences)を提案する。
ShaRPを用いて,アルゴリズムのランク付けで用いられるスコアリング関数が線形である場合でも,各特徴の重みがShapley値の寄与と一致しないことを示す。
その代わりに、コントリビューションは、特徴分布と、スコアリング特徴間の微妙な局所的な相互作用に依存する。
ShaRPはQuantical Input Influenceフレームワーク上に構築されており、スコア、ランク、ペアワイドの好み、トップkなど、複数の関心の量のための機能のコントリビューションを計算することができる。
ランク付けのブラックボックスアクセスに依存するため、スコアベースと学習されたランキングモデルの両方を説明するためにShaRPを使用することができる。
実データと合成データを用いて,ShaRPの実験的検証を行い,定性解析に有用であることを示す。
関連論文リスト
- LiPO: Listwise Preference Optimization through Learning-to-Rank [63.69441506085566]
本稿では,リストワイズ優先最適化(LiPO)フレームワークについて述べる。このフレームワークでは,評価可能な応答のランクリストから,ポリシーをより効率的に学習することができる。
2つの選好アライメントタスクにおいて,LiPO-lambdaがDPOとSLiCよりも明確なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-02-02T20:08:10Z) - The Distributional Uncertainty of the SHAP score in Explainable Machine
Learning [2.8136734847819778]
本稿では,未知の実体集団分布下でのSHAPスコアの推論の原理的枠組みを提案する。
我々は,この関数の最大値と最小値を求める基本的な問題について検討し,すべての特徴のSHAPスコアに対して厳密な範囲を決定できることを示した。
論文 参考訳(メタデータ) (2024-01-23T13:04:02Z) - TRIVEA: Transparent Ranking Interpretation using Visual Explanation of
Black-Box Algorithmic Rankers [4.336037935247747]
ランク付けスキームは、どこで勉強するか、誰を雇うか、何を買うかなど、多くの現実世界の意思決定を促します。
これらの決定の核心は、データエンティティの順序を決定する不透明なランキングスキームである。
我々は、利用可能なデータから学習するアルゴリズム的なランク付けと、説明可能なAI(XAI)手法を用いて学習したランキング差について人間の推論を行うことで、ランキング解釈における透明性の実現を目指している。
論文 参考訳(メタデータ) (2023-08-28T16:58:44Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Feature Importance: A Closer Look at Shapley Values and LOCO [0.0]
変数の重要性を定義する2つの一般的な方法は、LOCOとShapley Valuesである。
これらの手法の特性とその利点と欠点について考察する。
一部の主張とは対照的に、Shapley値は特徴相関を排除しない。
論文 参考訳(メタデータ) (2023-03-10T15:32:11Z) - WeightedSHAP: analyzing and improving Shapley based feature attributions [17.340091573913316]
共有価値(Shapley value)は、個々の特徴の影響を測定するための一般的なアプローチである。
WeightedSHAPを提案する。これはShapleyの価値を一般化し、データから直接フォーカスする限界貢献を学習する。
いくつかの実世界のデータセットにおいて、WeightedSHAPによって識別される影響のある特徴がモデルの予測を再カプセル化できることを示す。
論文 参考訳(メタデータ) (2022-09-27T14:34:07Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Improving Fairness for Data Valuation in Federated Learning [39.61504568047234]
本稿では,フェデレートされたシャプリー値の公平性を改善するために,フェデレーションされたシャプリー値と呼ばれる新しい尺度を提案する。
この行列は、最適化から概念やツールを活用することにより、ほぼ低ランクであることが穏やかな条件下で示される。
論文 参考訳(メタデータ) (2021-09-19T02:39:59Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Towards Efficient Data Valuation Based on the Shapley Value [65.4167993220998]
本稿では,Shapley値を用いたデータ評価の問題点について検討する。
Shapleyの値は、データ値の概念に対して多くのデシダータを満たすユニークなペイオフスキームを定義する。
本稿では,Shapley値を近似する効率的なアルゴリズムのレパートリーを提案する。
論文 参考訳(メタデータ) (2019-02-27T00:22:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。