論文の概要: Probabilistic Permutation Graph Search: Black-Box Optimization for
Fairness in Ranking
- arxiv url: http://arxiv.org/abs/2204.13765v1
- Date: Thu, 28 Apr 2022 20:38:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 15:09:40.301216
- Title: Probabilistic Permutation Graph Search: Black-Box Optimization for
Fairness in Ranking
- Title(参考訳): Probabilistic Permutation Graph Search: ランク付けの公正性のためのブラックボックス最適化
- Authors: Ali Vardasbi, Fatemeh Sarvi, Maarten de Rijke
- Abstract要約: 本稿では、置換グラフの概念に基づいて、置換分布を表現する新しい方法を提案する。
PLと同様に、PPGと呼ばれる分布表現は、公正性のブラックボックス最適化に利用できる。
- 参考スコア(独自算出の注目度): 53.94413894017409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There are several measures for fairness in ranking, based on different
underlying assumptions and perspectives. PL optimization with the REINFORCE
algorithm can be used for optimizing black-box objective functions over
permutations. In particular, it can be used for optimizing fairness measures.
However, though effective for queries with a moderate number of repeating
sessions, PL optimization has room for improvement for queries with a small
number of repeating sessions.
In this paper, we present a novel way of representing permutation
distributions, based on the notion of permutation graphs. Similar to PL, our
distribution representation, called PPG, can be used for black-box optimization
of fairness. Different from PL, where pointwise logits are used as the
distribution parameters, in PPG pairwise inversion probabilities together with
a reference permutation construct the distribution. As such, the reference
permutation can be set to the best sampled permutation regarding the objective
function, making PPG suitable for both deterministic and stochastic rankings.
Our experiments show that PPG, while comparable to PL for larger session
repetitions (i.e., stochastic ranking), improves over PL for optimizing
fairness metrics for queries with one session (i.e., deterministic ranking).
Additionally, when accurate utility estimations are available, e.g., in tabular
models, the performance of PPG in fairness optimization is significantly
boosted compared to lower quality utility estimations from a learning to rank
model, leading to a large performance gap with PL. Finally, the pairwise
probabilities make it possible to impose pairwise constraints such as "item
$d_1$ should always be ranked higher than item $d_2$." Such constraints can be
used to simultaneously optimize the fairness metric and control another
objective such as ranking performance.
- Abstract(参考訳): ランク付けの公平性には、異なる前提と視点に基づくいくつかの尺度がある。
REINFORCEアルゴリズムによるPL最適化は、置換によるブラックボックス目的関数の最適化に利用できる。
特に、公正度を最適化するために使用できる。
しかし、緩やかな繰り返しセッション数を持つクエリには有効であるが、PL最適化は、少数の繰り返しセッション数を持つクエリに対して改善の余地がある。
本稿では、置換グラフの概念に基づいて、置換分布を表現する新しい方法を提案する。
PLと同様に、PPGと呼ばれる分布表現は、公正性のブラックボックス最適化に利用できる。
分布パラメータとしてポイントワイドロジットが使用されるPLと異なり、PPGのペアワイド反転確率は参照置換とともに分布を構成する。
したがって、基準置換は目的関数に関する最良のサンプル置換に設定でき、ppgは決定論的および確率的ランキングの両方に適合する。
実験の結果,ppgはplに匹敵する大規模なセッション繰り返し(すなわち確率的ランキング)に対して,1つのセッション(すなわち決定論的ランキング)でクエリの公平性指標を最適化するplよりも改善されていることがわかった。
さらに、表型モデルのように正確なユーティリティ推定が可能であれば、公平性最適化におけるppgの性能は、学習からランクモデルへの低い品質のユーティリティ推定と比べて大幅に向上し、plによるパフォーマンスギャップが大きくなる。
最後に、ペアワイズ確率は、"item $d_1$ should always than item $d_2$"のようなペアワイズ制約を課すことを可能にする。
このような制約は、公正度メトリックを同時に最適化し、ランキングパフォーマンスなどの他の目的を制御するために使用できる。
関連論文リスト
- Adaptive Online Bayesian Estimation of Frequency Distributions with Local Differential Privacy [0.4604003661048266]
本稿では, 局所微分プライバシー(LDP)フレームワークを用いて, 有限個のカテゴリの周波数分布を適応的かつオンラインに推定する手法を提案する。
提案アルゴリズムは, 後方サンプリングによるベイズパラメータ推定を行い, 得られた後方サンプルに基づいて, LDPのランダム化機構を適用する。
提案手法は, (i) アルゴリズムがターゲットとする後続分布が近似した後続サンプリングであっても真のパラメータに収束し, (ii) アルゴリズムが後続サンプリングを正確に行えば高い確率で最適サブセットを選択することを示す理論解析である。
論文 参考訳(メタデータ) (2024-05-11T13:59:52Z) - Poisson Process for Bayesian Optimization [126.51200593377739]
本稿では、Poissonプロセスに基づくランキングベースの代理モデルを提案し、Poisson Process Bayesian Optimization(PoPBO)と呼ばれる効率的なBOフレームワークを提案する。
従来のGP-BO法と比較すると,PoPBOはコストが低く,騒音に対する堅牢性も良好であり,十分な実験により検証できる。
論文 参考訳(メタデータ) (2024-02-05T02:54:50Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Provable benefits of score matching [30.317535687908755]
スコアマッチング損失が計算効率良く最適化できるような分布の自然指数族の最初の例を示す。
確率損失を最適化するためのゼロ階または1階のオラクルの設計はNPハードであることを示す。
スコアマッチング損失の最小化は、計算的かつ統計的に効率的であり、周囲の次元は複雑である。
論文 参考訳(メタデータ) (2023-06-03T03:42:30Z) - Bayesian Optimization with Conformal Prediction Sets [44.565812181545645]
コンフォーマル予測(Conformal prediction)は、不確実な定量化手法であり、不特定モデルに対してもカバレッジを保証する。
本稿では,モデルの妥当性が保証された検索空間の領域にクエリを誘導する共形ベイズ最適化を提案する。
多くの場合、クエリのカバレッジはサンプル効率を損なうことなく大幅に改善できる。
論文 参考訳(メタデータ) (2022-10-22T17:01:05Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - You May Not Need Ratio Clipping in PPO [117.03368180633463]
Proximal Policy Optimization (PPO) 法は、複数のミニバッチ最適化エポックを1組のサンプルデータで反復的に実行することでポリシーを学習する。
比率クリッピングPPOは、ターゲットポリシーとサンプル収集に使用されるポリシーの確率比をクリップする一般的な変種である。
本論文では, この比クリッピングが有効に結合できないため, 良好な選択ではないことを示す。
ESPOは、多くのワーカーによる分散トレーニングに簡単にスケールアップでき、パフォーマンスも高いことを示す。
論文 参考訳(メタデータ) (2022-01-31T20:26:56Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Preferential Bayesian optimisation with Skew Gaussian Processes [0.225596179391365]
選好関数の真の後続分布はスキューガウス過程(SkewGP)であることを示す。
我々は、正確なSkiwGP後部を計算し、標準取得関数を用いたPBOの代理モデルとして利用する効率的な手法を導出する。
また、我々のフレームワークは、混合優先カテゴリーBOを扱うように拡張可能であることも示している。
論文 参考訳(メタデータ) (2020-08-15T08:23:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。