論文の概要: Bias in Opinion Summarisation from Pre-training to Adaptation: A Case
Study in Political Bias
- arxiv url: http://arxiv.org/abs/2402.00322v1
- Date: Thu, 1 Feb 2024 04:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 16:38:31.127813
- Title: Bias in Opinion Summarisation from Pre-training to Adaptation: A Case
Study in Political Bias
- Title(参考訳): 事前学習から適応までの意見要約におけるバイアス--政治バイアスを事例として
- Authors: Nannan Huang, Haytham Fayek, Xiuzhen Zhang
- Abstract要約: オピニオン要約は、製品レビュー、ディスカッションフォーラム、ソーシャルメディアのテキストなどの文書で提示される健全な情報と意見を要約することを目的としている。
偏見のある要約を作ることは 世論を揺さぶるリスクがあります
- 参考スコア(独自算出の注目度): 4.964212137957899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Opinion summarisation aims to summarise the salient information and opinions
presented in documents such as product reviews, discussion forums, and social
media texts into short summaries that enable users to effectively understand
the opinions therein. Generating biased summaries has the risk of potentially
swaying public opinion. Previous studies focused on studying bias in opinion
summarisation using extractive models, but limited research has paid attention
to abstractive summarisation models. In this study, using political bias as a
case study, we first establish a methodology to quantify bias in abstractive
models, then trace it from the pre-trained models to the task of summarising
social media opinions using different models and adaptation methods. We find
that most models exhibit intrinsic bias. Using a social media text
summarisation dataset and contrasting various adaptation methods, we find that
tuning a smaller number of parameters is less biased compared to standard
fine-tuning; however, the diversity of topics in training data used for
fine-tuning is critical.
- Abstract(参考訳): 意見要約は、製品レビュー、議論フォーラム、ソーシャルメディアのテキストなどの文書で提示される敬遠した情報と意見を、ユーザが意見を効果的に理解できる短い要約にまとめることを目的としている。
偏見のある要約を生成することは、世論を揺さぶるリスクがある。
これまでの研究は、抽出モデルを用いた意見要約におけるバイアスの研究に焦点を当ててきたが、限定的な研究は抽象要約モデルに注意を払ってきた。
本研究では,政治バイアスを事例研究として,まず抽象モデルにおけるバイアスの定量化手法を確立し,それを事前学習モデルから,異なるモデルと適応手法を用いてソーシャルメディアの意見を要約するタスクまで追跡する。
ほとんどのモデルは本質的な偏見を示す。
ソーシャルメディアのテキスト要約データセットと様々な適応方法の対比を用いて,パラメータのチューニングは,標準の微調整に比べてバイアスが少ないことを見出したが,微調整に使用されるトレーニングデータにおけるトピックの多様性は極めて重要である。
関連論文リスト
- Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Revisiting Zero-Shot Abstractive Summarization in the Era of Large Language Models from the Perspective of Position Bias [13.828653029379257]
位置バイアスを測定することにより,Large Language Models (LLMs) におけるゼロショット抽象要約を特徴付ける。
位置バイアスは入力テキストの特定の部分からの情報を不当に優先するモデルの傾向を捉え、望ましくない振る舞いをもたらす。
その結果,ゼロショット要約タスクにおけるモデルの性能と位置バイアスに関する新たな洞察と議論につながった。
論文 参考訳(メタデータ) (2024-01-03T21:38:40Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Bias in News Summarization: Measures, Pitfalls and Corpora [4.917075909999548]
本稿では,要約モデルにおけるバイアス付き行動の定義と実用運用について紹介する。
目的合成モデルと汎用チャットモデルの両方で生成された英語要約における性別バイアスを測定する。
単一文書要約におけるコンテンツ選択は、性バイアスの影響をほとんど受けていないが、幻覚は偏見の証拠である。
論文 参考訳(メタデータ) (2023-09-14T22:20:27Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Subjective Bias in Abstractive Summarization [11.675414451656568]
主観的バイアスと同じ内容を要約する複数の表現の相違を定式化し、抽象的要約の文脈におけるこのバイアスの役割について検討する。
スタイルクラスタ化されたデータセットに基づいてトレーニングされた要約モデルの結果は、より収束性、抽象化、一般化につながるある種のスタイルが存在することを示している。
論文 参考訳(メタデータ) (2021-06-18T12:17:55Z) - RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of
Conversational Language Models [37.98671828283487]
テキスト表現モデルは、様々な社会的バイアスを示す傾向がある。
最近の研究は、事前訓練された言語モデルにおけるバイアスの測定と緩和に重点を置いている。
RedditBiasは、Redditによる人間の会話をベースとした初めての会話データセットだ。
論文 参考訳(メタデータ) (2021-06-07T11:22:39Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。