論文の概要: Entity-Based Evaluation of Political Bias in Automatic Summarization
- arxiv url: http://arxiv.org/abs/2305.02321v2
- Date: Thu, 19 Oct 2023 18:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 12:12:51.587993
- Title: Entity-Based Evaluation of Political Bias in Automatic Summarization
- Title(参考訳): 自動要約における政治的バイアスのエンティティベース評価
- Authors: Karen Zhou and Chenhao Tan
- Abstract要約: 本稿では,ニュース記事の自動要約における政治家の描写を,エンティティ代替手法を用いて調査する。
我々は、ドナルド・トランプやジョー・バイデンといった政治家に対して、抽出的かつ抽象的な要約者の感性を評価するためのエンティティベースの計算フレームワークを開発する。
- 参考スコア(独自算出の注目度): 27.68439481274954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing literature has shown that NLP systems may encode social biases;
however, the political bias of summarization models remains relatively unknown.
In this work, we use an entity replacement method to investigate the portrayal
of politicians in automatically generated summaries of news articles. We
develop an entity-based computational framework to assess the sensitivities of
several extractive and abstractive summarizers to the politicians Donald Trump
and Joe Biden. We find consistent differences in these summaries upon entity
replacement, such as reduced emphasis of Trump's presence in the context of the
same article and a more individualistic representation of Trump with respect to
the collective US government (i.e., administration). These summary
dissimilarities are most prominent when the entity is heavily featured in the
source article. Our characterization provides a foundation for future studies
of bias in summarization and for normative discussions on the ideal qualities
of automatic summaries.
- Abstract(参考訳): 成長する文献によると、NLPシステムは社会的バイアスを符号化する可能性があるが、要約モデルの政治的バイアスは比較的知られていない。
本研究では,ニュース記事の自動生成要約における政治家の描写を調査するために,エンティティ置換手法を用いる。
我々は、ドナルド・トランプやジョー・バイデンに対する抽出的、抽象的な要約者の感性を評価するためのエンティティベースの計算フレームワークを開発する。
例えば、同じ記事の文脈におけるトランプの存在を強調することの軽減や、集団的な米国政府(すなわち政権)に対するトランプのより個人主義的な表現などである。
これらの要約の相違は、エンティティがソース記事に大きく取り上げられているときに最も顕著である。
我々の特徴は、要約におけるバイアスの研究と自動要約の理想的な性質に関する規範的な議論の基礎となる。
関連論文リスト
- Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Understanding Position Bias Effects on Fairness in Social Multi-Document Summarization [1.9950682531209158]
3つの言語コミュニティからのつぶやきを要約する際の入力文書におけるグループ順序付けの効果について検討する。
以上の結果から,社会的多文書要約では位置バイアスが異なることが示唆された。
論文 参考訳(メタデータ) (2024-05-03T00:19:31Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Mitigating Media Bias through Neutral Article Generation [39.29914845102368]
既存の緩和作業は、複数のニュースアウトレットからの記事を表示し、多様なニュースカバレッジを提供しますが、表示された各記事に固有のバイアスを中和しません。
我々は,複数の偏りのある記事から単一の中性化記事を生成する新しいタスクを提案し,バランスのとれた情報や偏りのない情報へのアクセスをより効率的にする。
論文 参考訳(メタデータ) (2021-04-01T08:37:26Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z) - Analyzing Political Bias and Unfairness in News Articles at Different
Levels of Granularity [35.19976910093135]
本論文では, 偏見の自動検出だけでなく, 政治的偏見や不公平さが言語的にどのように表現されるかについても検討する。
我々は,adfontesmedia.comから派生したラベル付き6964ニュース記事の新しいコーパスを活用し,バイアス評価のためのニューラルモデルを開発した。
論文 参考訳(メタデータ) (2020-10-20T22:25:00Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。