論文の概要: Fair Learning for Bias Mitigation and Quality Optimization in Paper Recommendation
- arxiv url: http://arxiv.org/abs/2603.11936v1
- Date: Thu, 12 Mar 2026 13:48:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.115793
- Title: Fair Learning for Bias Mitigation and Quality Optimization in Paper Recommendation
- Title(参考訳): 紙レコメンデーションにおけるバイアス低減のための公正学習と品質最適化
- Authors: Uttamasha Anjally Oyshi, Susan Gauch,
- Abstract要約: 本稿では,MLP(MultiLayer Perceptron)ベースのモデルを提案する。
本手法は, 品質基準(例えば, 人種, 国)とカスタマイズされた公正度損失を保ちながら, 人口格差を罰する。
- 参考スコア(独自算出の注目度): 1.9029881798999504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite frequent double-blind review, demographic biases of authors still disadvantage the underrepresented groups. We present Fair-PaperRec, a MultiLayer Perceptron (MLP)-based model that addresses demographic disparities in post-review paper acceptance decisions while maintaining high-quality requirements. Our methodology penalizes demographic disparities while preserving quality through intersectional criteria (e.g., race, country) and a customized fairness loss, in contrast to heuristic approaches. Evaluations using conference data from ACM Special Interest Group on Computer-Human Interaction (SIGCHI), Designing Interactive Systems (DIS), and Intelligent User Interfaces (IUI) indicate a 42.03% increase in underrepresented group participation and a 3.16% improvement in overall utility, indicating that diversity promotion does not compromise academic rigor and supports equity-focused peer review solutions.
- Abstract(参考訳): 頻繁な二重盲検レビューにもかかわらず、著者の人口統計バイアスはいまだに不足しているグループを不利にしている。
高品質な要件を維持しつつ,論文受理決定後の人口格差に対処するマルチレイヤ・パーセプトロン(MLP)ベースのモデルであるFair-PaperRecを提案する。
提案手法は,交差基準(例えば,人種,国)と,ヒューリスティックなアプローチとは対照的に,カスタマイズされた公正な損失を通じて品質を維持しながら,人口格差を罰する。
ACM Special Interest Group on Computer-Human Interaction (SIGCHI)、Designing Interactive Systems (DIS)、Intelligent User Interfaces (IUI)の会議データを用いた評価は、不足するグループへの参加が42.03%増加し、全体的なユーティリティが3.16%改善したことを示している。
関連論文リスト
- From Bias to Balance: Fairness-Aware Paper Recommendation for Equitable Peer Review [1.9029881798999504]
本稿では,学術的品質を向上し,評価することのできる,レビュー後の論文選択のためのフレームワークを提案する。
Fair-PaperRecは、制御された条件下での公正なパラメータの振る舞いを分析して、実際の提出を検証することによって、レビュー後の論文選択のための実践的で株式に焦点を当てたフレームワークを提供し、いくつかの設定では、学術的な品質を向上し、測定することができる。
論文 参考訳(メタデータ) (2026-02-25T21:57:07Z) - Fairness-Aware Grouping for Continuous Sensitive Variables: Application for Debiasing Face Analysis with respect to Skin Tone [3.3298048942057523]
連続的(多次元的)な属性に対する公平性に基づくグループ化手法を提案する。
識別レベルに応じてデータをグループ化することにより、新しい基準を最大化する分割を同定する。
提案手法を複数の合成データセットを用いて検証し,人口分布の変化によるロバスト性を示す。
論文 参考訳(メタデータ) (2025-07-15T12:21:52Z) - Mitigating Subgroup Disparities in Multi-Label Speech Emotion Recognition: A Pseudo-Labeling and Unsupervised Learning Approach [53.824673312331626]
Implicit Demography Inference (IDI)モジュールは、k平均クラスタリングを用いて、音声感情認識(SER)におけるバイアスを軽減する
実験により、擬似ラベルIDIはサブグループの格差を減らし、フェアネスの指標を28%以上改善することが示された。
教師なしのIDIは、SERのパフォーマンスが3.6%未満のフェアネス指標を4.6%以上改善する。
論文 参考訳(メタデータ) (2025-05-20T14:50:44Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。