論文の概要: From Bias to Balance: Fairness-Aware Paper Recommendation for Equitable Peer Review
- arxiv url: http://arxiv.org/abs/2602.22438v1
- Date: Wed, 25 Feb 2026 21:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.426729
- Title: From Bias to Balance: Fairness-Aware Paper Recommendation for Equitable Peer Review
- Title(参考訳): バイアスからバランスへ:公平性に配慮した紙レコメンデーション
- Authors: Uttamasha Anjally Oyshi, Susan Gauch,
- Abstract要約: 本稿では,学術的品質を向上し,評価することのできる,レビュー後の論文選択のためのフレームワークを提案する。
Fair-PaperRecは、制御された条件下での公正なパラメータの振る舞いを分析して、実際の提出を検証することによって、レビュー後の論文選択のための実践的で株式に焦点を当てたフレームワークを提供し、いくつかの設定では、学術的な品質を向上し、測定することができる。
- 参考スコア(独自算出の注目度): 1.9029881798999504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite frequent double-blind review, systemic biases related to author demographics still disadvantage underrepresented groups. We start from a simple hypothesis: if a post-review recommender is trained with an explicit fairness regularizer, it should increase inclusion without degrading quality. To test this, we introduce Fair-PaperRec, a Multi-Layer Perceptron (MLP) with a differentiable fairness loss over intersectional attributes (e.g., race, country) that re-ranks papers after double-blind review. We first probe the hypothesis on synthetic datasets spanning high, moderate, and near-fair biases. Across multiple randomized runs, these controlled studies map where increasing the fairness weight strengthens macro/micro diversity while keeping utility approximately stable, demonstrating robustness and adaptability under varying disparity levels. We then carry the hypothesis into the original setting, conference data from ACM Special Interest Group on Computer-Human Interaction (SIGCHI), Designing Interactive Systems (DIS), and Intelligent User Interfaces (IUI). In this real-world scenario, an appropriately tuned configuration of Fair-PaperRec achieves up to a 42.03% increase in underrepresented-group participation with at most a 3.16% change in overall utility relative to the historical selection. Taken together, the synthetic-to-original progression shows that fairness regularization can act as both an equity mechanism and a mild quality regularizer, especially in highly biased regimes. By first analyzing the behavior of the fairness parameters under controlled conditions and then validating them on real submissions, Fair-PaperRec offers a practical, equity-focused framework for post-review paper selection that preserves, and in some settings can even enhance, measured scholarly quality.
- Abstract(参考訳): 頻繁な二重盲検レビューにもかかわらず、著者の人口統計に関する体系的な偏見は、いまだに表現されていないグループに不利なままである。
レビュー後レコメンデータが明示的な公平性レギュレータでトレーニングされた場合、品質を劣化させることなくインクルージョンを向上するべきだ、という単純な仮説から始まります。
これをテストするために、Fair-PaperRecという多層パーセプトロン(MLP)を導入する。
まず、高次、中等度、準公正なバイアスにまたがる合成データセットの仮説を探索する。
これらの制御された研究は、複数のランダム化された実行全体にわたって、フェアネスの重みを増大させることでマクロ/ミクロの多様性が向上し、有効性をほぼ安定させ、様々な相違レベル下で頑健性と適応性を実証する。
次に、ACM Special Interest Group on Computer-Human Interaction (SIGCHI)、Designing Interactive Systems (DIS)、Intelligent User Interfaces (IUI)の会議データをもとに、この仮説を元の設定にまとめる。
この現実のシナリオでは、Fair-PaperRecの適切に調整された構成は、表現不足のグループ参加が最大42.03%増加し、少なくとも歴史的選択と比較して全体のユーティリティが3.16%変化する。
総合的に考えると、合成からオリジナルへの進歩は、公正な正則化が、特に非常に偏りの強い体制において、公平なメカニズムと穏やかな品質正則化の両方として機能することを示している。
Fair-PaperRecは、制御された条件下での公正なパラメータの振る舞いを分析して、実際の提出を検証することによって、レビュー後の論文選択のための実践的で株式に焦点を当てたフレームワークを提供し、いくつかの設定では、学術的な品質を向上し、測定することができる。
関連論文リスト
- The Unfairness of Multifactorial Bias in Recommendation [68.35079031029616]
人気バイアスと肯定バイアスは推薦システムにおいて顕著なバイアス源である。
本研究では,多因子バイアスが項目側の公平性にどのように影響するかを検討する。
我々は、多因子バイアスを軽減するために、パーセンタイルに基づく評価変換を前処理戦略として適用する。
論文 参考訳(メタデータ) (2026-01-19T08:37:43Z) - Whence Is A Model Fair? Fixing Fairness Bugs via Propensity Score Matching [0.49157446832511503]
サンプルデータのトレーニングやテストの方法がフェアネス指標の信頼性に影響を及ぼすかどうかを検討する。
トレーニングデータとテストセットは、しばしば同じ集団からランダムにサンプリングされるため、トレーニングデータに存在するバイアスは、テストデータにまだ存在する可能性がある。
偏見の評価と緩和に適合性スコアマッチングを適用した後処理法であるFairMatchを提案する。
論文 参考訳(メタデータ) (2025-04-23T19:28:30Z) - Towards Large Language Models that Benefit for All: Benchmarking Group Fairness in Reward Models [16.977176752570617]
大規模言語モデル(LLM)は、ますます強力で、人間のユーザにとってアクセスしやすくなっている。
多様な人口集団、すなわちグループフェアネスの公平性を保証することは、批判的な倫理的関心事である。
この研究は、学習した報酬モデルのグループフェアネスをベンチマークする。
論文 参考訳(メタデータ) (2025-03-10T19:39:39Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples [21.144077993862652]
我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-11T14:39:51Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。