論文の概要: Does Reasoning Make Search More Fair? Comparing Fairness in Reasoning and Non-Reasoning Rerankers
- arxiv url: http://arxiv.org/abs/2603.10332v1
- Date: Wed, 11 Mar 2026 02:01:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.747736
- Title: Does Reasoning Make Search More Fair? Comparing Fairness in Reasoning and Non-Reasoning Rerankers
- Title(参考訳): 推論は検索をより公平にするか?
- Authors: Saron Samuel, Benjamin Van Durme, Eugene Yang,
- Abstract要約: 推論と非推論リランカの公平性の最初の体系的比較を行う。
以上の結果から,非理性アプローチと比較して,理性は改善も公平性も損なわないことが明らかとなった。
- 参考スコア(独自算出の注目度): 56.54960821093771
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While reasoning rerankers, such as Rank1, have demonstrated strong abilities in improving ranking relevance, it is unclear how they perform on other retrieval qualities such as fairness. We conduct the first systematic comparison of fairness between reasoning and non-reasoning rerankers. Using the TREC 2022 Fair Ranking Track dataset, we evaluate six reranking models across multiple retrieval settings and demographic attributes. Our findings demonstrate reasoning neither improve nor harm fairness compared to non-reasoning approaches. Our fairness metric, Attention-Weighted Rank Fairness (AWRF) remained stable (0.33-0.35) across all models, even as relevance varies substantially (nDCG 0.247-1.000). Demographic breakdown analysis revealed fairness gaps for geographic attributes regardless of model architecture. These results indicate that future work in specializing reasoning models to be aware of fairness attributes could lead to improvements, as current implementations preserve the fairness characteristics of their input ranking.
- Abstract(参考訳): ランク1のような推論リランカは、ランク関連性を改善する上で強力な能力を示しているが、フェアネスなどの他の検索品質でどのように機能するかは明らかではない。
推論と非推論リランカの公平性の最初の体系的比較を行う。
TREC 2022 Fair Ranking Trackデータセットを用いて、複数の検索設定と人口統計属性にまたがる6つのランキングモデルを評価する。
以上の結果から,非理性アプローチと比較して,理性は改善も公平性も損なわないことが明らかとなった。
我々の公正度尺度であるAWRF(Attention-Weighted Rank Fairness)は、すべてのモデルで安定(0.33-0.35)であり、関連性はかなり異なる(nDCG 0.247-1.000)。
デモグラフィの分解分析では, モデルアーキテクチャによらず, 地理的属性の公平さのギャップが明らかとなった。
これらの結果から,現在実施されている実装は,入力ランキングの公平性特性を保っているため,フェアネス特性を意識する推論モデルを専門化するための今後の取り組みが改善する可能性が示唆された。
関連論文リスト
- Towards counterfactual fairness through auxiliary variables [11.756940915048713]
変数を動機とする新しい因果推論フレームワークEXOCを紹介する。
本フレームワークは, ファクトフェアネスに寄与する補助ノードと制御ノードを明示的に定義する。
合成および実世界のデータセットを用いて評価を行い,EXOCの優位性を検証した。
論文 参考訳(メタデータ) (2024-12-06T04:23:05Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Fairness Under Demographic Scarce Regime [7.523105080786704]
フェアネスと精度のトレードオフを改善する属性分類器を構築するためのフレームワークを提案する。
不確実な感度特性を持つ試料に公正性制約を課すことは、公正性-正確性トレードオフに悪影響を及ぼす可能性があることを示す。
我々のフレームワークは、ほとんどのベンチマークで真に敏感な属性に対する公平性制約で訓練されたモデルより優れている。
論文 参考訳(メタデータ) (2023-07-24T19:07:34Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。