論文の概要: Fairness for Whom? Understanding the Reader's Perception of Fairness in
Text Summarization
- arxiv url: http://arxiv.org/abs/2101.12406v1
- Date: Fri, 29 Jan 2021 05:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 12:54:26.007662
- Title: Fairness for Whom? Understanding the Reader's Perception of Fairness in
Text Summarization
- Title(参考訳): 誰のための公平?
テキスト要約における読者の公平性認識の理解
- Authors: Anurag Shandilya, Abhisek Dash, Abhijnan Chakraborty, Kripabandhu
Ghosh, Saptarshi Ghosh
- Abstract要約: フェアネスの概念と読者のテキスト要約における認識の相互関係について検討する。
標準的なROUGE評価指標は、要約の認識された(不公平な)性質を定量化できない。
- 参考スコア(独自算出の注目度): 9.136419921943235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the surge in user-generated textual information, there has been a recent
increase in the use of summarization algorithms for providing an overview of
the extensive content. Traditional metrics for evaluation of these algorithms
(e.g. ROUGE scores) rely on matching algorithmic summaries to human-generated
ones. However, it has been shown that when the textual contents are
heterogeneous, e.g., when they come from different socially salient groups,
most existing summarization algorithms represent the social groups very
differently compared to their distribution in the original data. To mitigate
such adverse impacts, some fairness-preserving summarization algorithms have
also been proposed. All of these studies have considered normative notions of
fairness from the perspective of writers of the contents, neglecting the
readers' perceptions of the underlying fairness notions. To bridge this gap, in
this work, we study the interplay between the fairness notions and how readers
perceive them in textual summaries. Through our experiments, we show that
reader's perception of fairness is often context-sensitive. Moreover, standard
ROUGE evaluation metrics are unable to quantify the perceived (un)fairness of
the summaries. To this end, we propose a human-in-the-loop metric and an
automated graph-based methodology to quantify the perceived bias in textual
summaries. We demonstrate their utility by quantifying the (un)fairness of
several summaries of heterogeneous socio-political microblog datasets.
- Abstract(参考訳): ユーザが生成するテキスト情報の増加に伴い、近年、広範囲なコンテンツの概要を提供するための要約アルゴリズムの利用が増加している。
これらのアルゴリズムを評価するための伝統的なメトリクス(例)
ROUGEスコア)は、アルゴリズムの要約と人間生成の要約を一致させることに頼っている。
しかし、テキストの内容が異質である場合、例えば、異なる社会的に有能なグループから来る場合、既存の要約アルゴリズムのほとんどは、元のデータにおける分布と非常に異なる社会集団を表すことが示されている。
このような悪影響を軽減するため、公正保存要約アルゴリズムも提案されている。
これらの研究のすべては、内容の作家の視点から公正の規範的な概念を検討し、根底にある公平性の概念に対する読者の認識を無視しています。
このギャップを埋めるため,本研究では,フェアネス概念と読者がテキスト要約でどのように認識するかを考察する。
実験により,読者の公平感は文脈に敏感な場合が多いことを示した。
さらに、標準的なROUGE評価指標は、要約の知覚的(不公平)性を定量化できない。
そこで本研究では,テキスト要約における知覚バイアスを定量化するための,ループ内人間メトリックとグラフベースの自動手法を提案する。
我々は,不均質な社会-政治的マイクロブログデータセットのいくつかの要約(un)を定量化し,その有用性を示す。
関連論文リスト
- Fair Summarization: Bridging Quality and Diversity in Extractive Summaries [4.214129657411282]
本稿では,FairExtractとFairGPTの2つの新しい抽出方法を紹介する。
我々は,これらの手法を,ホワイトアライメント,ヒスパニック,アフリカ系アメリカ人の方言ツイートのダイジェム要約データセットを用いて評価した。
論文 参考訳(メタデータ) (2024-11-12T03:37:53Z) - Annotator in the Loop: A Case Study of In-Depth Rater Engagement to Create a Bridging Benchmark Dataset [1.825224193230824]
本稿では,アノテーションのための新規かつ協調的かつ反復的なアノテーション手法について述べる。
以上の結果から,アノテータとの連携によりアノテーションの手法が強化されることが示唆された。
論文 参考訳(メタデータ) (2024-08-01T19:11:08Z) - Overview of PerpectiveArg2024: The First Shared Task on Perspective Argument Retrieval [56.66761232081188]
本稿では,社会における少数派・多数派を代表する年齢,性別,政治的態度など,人口・社会文化(社会)の多様性を包括する新しいデータセットを提案する。
パースペクティビズムを取り入れる上での重大な課題は、特に社会的なプロファイルを明示的に提供せずに、議論のテキストのみに基づくパーソナライズを目指す場合である。
パーソナライズと分極の低減を図るため, パーソナライズを最適化するためには, パーソナライズされた論証検索をブートストラップするが, さらなる研究が不可欠である。
論文 参考訳(メタデータ) (2024-07-29T03:14:57Z) - Understanding Position Bias Effects on Fairness in Social Multi-Document Summarization [1.9950682531209158]
3つの言語コミュニティからのつぶやきを要約する際の入力文書におけるグループ順序付けの効果について検討する。
以上の結果から,社会的多文書要約では位置バイアスが異なることが示唆された。
論文 参考訳(メタデータ) (2024-05-03T00:19:31Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。