論文の概要: Fair Summarization: Bridging Quality and Diversity in Extractive Summaries
- arxiv url: http://arxiv.org/abs/2411.07521v1
- Date: Tue, 12 Nov 2024 03:37:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:18:57.777013
- Title: Fair Summarization: Bridging Quality and Diversity in Extractive Summaries
- Title(参考訳): フェア・サマリゼーション:抽出サマリーのブリッジング品質と多様性
- Authors: Sina Bagheri Nezhad, Sayan Bandyapadhyay, Ameeta Agrawal,
- Abstract要約: 本稿では,FairExtractとFairGPTの2つの新しい抽出方法を紹介する。
我々は,これらの手法を,ホワイトアライメント,ヒスパニック,アフリカ系アメリカ人の方言ツイートのダイジェム要約データセットを用いて評価した。
- 参考スコア(独自算出の注目度): 4.214129657411282
- License:
- Abstract: Fairness in multi-document summarization of user-generated content remains a critical challenge in natural language processing (NLP). Existing summarization methods often fail to ensure equitable representation across different social groups, leading to biased outputs. In this paper, we introduce two novel methods for fair extractive summarization: FairExtract, a clustering-based approach, and FairGPT, which leverages GPT-3.5-turbo with fairness constraints. We evaluate these methods using Divsumm summarization dataset of White-aligned, Hispanic, and African-American dialect tweets and compare them against relevant baselines. The results obtained using a comprehensive set of summarization quality metrics such as SUPERT, BLANC, SummaQA, BARTScore, and UniEval, as well as a fairness metric F, demonstrate that FairExtract and FairGPT achieve superior fairness while maintaining competitive summarization quality. Additionally, we introduce composite metrics (e.g., SUPERT+F, BLANC+F) that integrate quality and fairness into a single evaluation framework, offering a more nuanced understanding of the trade-offs between these objectives. This work highlights the importance of fairness in summarization and sets a benchmark for future research in fairness-aware NLP models.
- Abstract(参考訳): ユーザ生成コンテンツのマルチドキュメント要約の公平性は、自然言語処理(NLP)において重要な課題である。
既存の要約手法は、しばしば異なる社会グループ間で平等な表現を保証できず、バイアスのある出力をもたらす。
本稿では,クラスタリングに基づくアプローチであるFairExtractと,公平性制約付きGPT-3.5-turboを利用するFairGPTの2つの新しい抽出手法を提案する。
これらの手法は,ホワイトアライメント,ヒスパニック,アフリカ系アメリカ人の方言ツイートのDivum summarizationデータセットを用いて評価し,関連するベースラインと比較した。
その結果, SUPERT, BLANC, SummaQA, BARTScore, UniEval などの総合的な要約品質指標と公正度指標Fを用いて,FairExtract と FairGPT が競争的な要約品質を維持しながら優れた公正性を実現することを示した。
さらに、品質と公平性を単一の評価フレームワークに統合する複合メトリクス(例えば、SUPERT+F、BLANC+F)を導入し、これらの目的間のトレードオフをより微妙に理解する。
この研究は、要約における公正の重要性を強調し、フェアネスを意識したNLPモデルにおける将来の研究のためのベンチマークを設定する。
関連論文リスト
- Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Evaluating and Improving Factuality in Multimodal Abstractive
Summarization [91.46015013816083]
そこで我々は,CLIPBERTScoreを提案する。
ゼロショットにおけるこの2つの指標の単純な組み合わせは、文書要約のための既存の事実度指標よりも高い相関性が得られることを示す。
本分析は,CLIPBERTScoreとそのコンポーネントの信頼性と高い相関性を示す。
論文 参考訳(メタデータ) (2022-11-04T16:50:40Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fair Mixup: Fairness via Interpolation [28.508444261249423]
公平性制約を課すための新しいデータ拡張戦略であるfair mixupを提案する。
対象群間の補間標本の経路のモデルに正則化することで公平性が達成できることを示す。
ベンチマークにおける精度と公正度の測定の両面において,より優れた一般化を実現することを実証的に示す。
論文 参考訳(メタデータ) (2021-03-11T06:57:26Z) - Fairness for Whom? Understanding the Reader's Perception of Fairness in
Text Summarization [9.136419921943235]
フェアネスの概念と読者のテキスト要約における認識の相互関係について検討する。
標準的なROUGE評価指標は、要約の認識された(不公平な)性質を定量化できない。
論文 参考訳(メタデータ) (2021-01-29T05:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。