論文の概要: Characterizing Political Bias in Automatic Summaries: A Case Study of
Trump and Biden
- arxiv url: http://arxiv.org/abs/2305.02321v1
- Date: Wed, 3 May 2023 17:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 13:40:58.697424
- Title: Characterizing Political Bias in Automatic Summaries: A Case Study of
Trump and Biden
- Title(参考訳): 自動要約における政治的バイアスの特徴:トランプとバイデンを事例として
- Authors: Karen Zhou and Chenhao Tan
- Abstract要約: 本稿では,ニュース記事の自動要約における政治家の描写を,エンティティ代替手法を用いて調査する。
我々は、政治団体と語彙資源に基づく計算フレームワークを開発し、ドナルド・トランプとジョー・バイデンの偏見を評価するためにそれを利用する。
- 参考スコア(独自算出の注目度): 12.452455964231739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Growing literature has shown that powerful NLP systems may encode social
biases; however, the political bias of summarization models remains relatively
unknown. In this work, we use an entity replacement method to investigate the
portrayal of politicians in automatically generated summaries of news articles.
We develop a computational framework based on political entities and lexical
resources, and use it to assess biases about Donald Trump and Joe Biden in both
extractive and abstractive summarization models. We find consistent
differences, such as stronger associations of a collective US government (i.e.,
administration) with Biden than with Trump. These summary dissimilarities are
most prominent when the entity is heavily featured in the source article. Our
systematic characterization provides a framework for future studies of bias in
summarization.
- Abstract(参考訳): 成長する文献によると、強力なNLPシステムは社会的偏見を符号化する可能性があるが、要約モデルの政治的偏見はいまだによく分かっていない。
本研究では,ニュース記事の自動生成要約における政治家の描写を調査するために,エンティティ置換手法を用いる。
我々は、政治的実体と語彙資源に基づく計算フレームワークを開発し、ドナルド・トランプとジョー・バイデンの偏見を抽出的および抽象的要約モデルの両方で評価する。
我々は、トランプよりもバイデンと団結する米国政府(すなわち、政権)との強い関係など、一貫性のある相違点を見いだす。
これらの要約の相違は、エンティティがソース記事に大きく取り上げられているときに最も顕著である。
我々の体系的特徴付けは、要約におけるバイアスの研究のためのフレームワークを提供する。
関連論文リスト
- Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Understanding Position Bias Effects on Fairness in Social Multi-Document Summarization [1.9950682531209158]
3つの言語コミュニティからのつぶやきを要約する際の入力文書におけるグループ順序付けの効果について検討する。
以上の結果から,社会的多文書要約では位置バイアスが異なることが示唆された。
論文 参考訳(メタデータ) (2024-05-03T00:19:31Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Mitigating Media Bias through Neutral Article Generation [39.29914845102368]
既存の緩和作業は、複数のニュースアウトレットからの記事を表示し、多様なニュースカバレッジを提供しますが、表示された各記事に固有のバイアスを中和しません。
我々は,複数の偏りのある記事から単一の中性化記事を生成する新しいタスクを提案し,バランスのとれた情報や偏りのない情報へのアクセスをより効率的にする。
論文 参考訳(メタデータ) (2021-04-01T08:37:26Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z) - Analyzing Political Bias and Unfairness in News Articles at Different
Levels of Granularity [35.19976910093135]
本論文では, 偏見の自動検出だけでなく, 政治的偏見や不公平さが言語的にどのように表現されるかについても検討する。
我々は,adfontesmedia.comから派生したラベル付き6964ニュース記事の新しいコーパスを活用し,バイアス評価のためのニューラルモデルを開発した。
論文 参考訳(メタデータ) (2020-10-20T22:25:00Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。