論文の概要: AdvSumm: Adversarial Training for Bias Mitigation in Text Summarization
- arxiv url: http://arxiv.org/abs/2506.06273v1
- Date: Fri, 06 Jun 2025 17:57:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.577846
- Title: AdvSumm: Adversarial Training for Bias Mitigation in Text Summarization
- Title(参考訳): AdvSumm:テキスト要約におけるバイアス軽減のための逆トレーニング
- Authors: Mukur Gupta, Nikhil Reddy Varimalla, Nicholas Deas, Melanie Subbiah, Kathleen McKeown,
- Abstract要約: 本稿では,テキスト要約におけるバイアスを軽減するためのトレーニングフレームワークAdvSummについて述べる。
AdvSummは、敵対的堅牢性に触発された新しいPerturberコンポーネントを導入し、Sequence-to-Sequenceモデルの埋め込みレベルに勾配誘導摂動を適用した。
筆者らは,AdvSummが,要約品質を損なうことなく,要約に特化して,名称国籍バイアス,政治的フレーミングバイアスを効果的に低減することを示した。
- 参考スコア(独自算出の注目度): 10.795139181851582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have achieved impressive performance in text summarization and are increasingly deployed in real-world applications. However, these systems often inherit associative and framing biases from pre-training data, leading to inappropriate or unfair outputs in downstream tasks. In this work, we present AdvSumm (Adversarial Summarization), a domain-agnostic training framework designed to mitigate bias in text summarization through improved generalization. Inspired by adversarial robustness, AdvSumm introduces a novel Perturber component that applies gradient-guided perturbations at the embedding level of Sequence-to-Sequence models, enhancing the model's robustness to input variations. We empirically demonstrate that AdvSumm effectively reduces different types of bias in summarization-specifically, name-nationality bias and political framing bias-without compromising summarization quality. Compared to standard transformers and data augmentation techniques like back-translation, AdvSumm achieves stronger bias mitigation performance across benchmark datasets.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト要約において印象的なパフォーマンスを達成し、現実のアプリケーションにますますデプロイされている。
しかしながら、これらのシステムは、事前訓練されたデータから連想バイアスやフレーミングバイアスを継承することが多く、下流のタスクでは不適切または不公平なアウトプットをもたらす。
本稿では,AdvSumm(Adversarial Summarization)について紹介する。
AdvSummは、敵対的ロバスト性にインスパイアされた新しいPerturberコンポーネントを導入し、Squence-to-Sequenceモデルの埋め込みレベルで勾配誘導摂動を適用し、入力変動に対するモデルのロバスト性を高める。
筆者らは,AdvSummが,要約品質を損なうことなく,要約に特化して,名称国籍バイアス,政治的フレーミングバイアスを効果的に低減することを示した。
標準のトランスフォーマーやバックトランスレーションのようなデータ拡張技術と比較して、AdvSummはベンチマークデータセット間でより強力なバイアス緩和性能を実現する。
関連論文リスト
- Rethinking Relation Extraction: Beyond Shortcuts to Generalization with a Debiased Benchmark [53.876493664396506]
ベンチマークは、機械学習アルゴリズムのパフォーマンスの評価、比較の促進、優れたソリューションの特定に不可欠である。
本稿では,関係抽出タスクにおけるエンティティバイアスの問題に対処する。
本稿では,エンティティの代替によって,エンティティ参照と関係型との擬似相関を破る不偏関係抽出ベンチマークDREBを提案する。
DREBの新たなベースラインを確立するために,データレベルとモデルトレーニングレベルを組み合わせたデバイアス手法であるMixDebiasを導入する。
論文 参考訳(メタデータ) (2025-01-02T17:01:06Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - AMRFact: Enhancing Summarization Factuality Evaluation with AMR-Driven Negative Samples Generation [57.8363998797433]
抽象的意味表現(AMR)を用いた摂動要約を生成するフレームワークであるAMRFactを提案する。
提案手法は,AMRグラフに一貫した要約を解析し,制御された事実不整合を注入して負の例を生成し,一貫性のない事実不整合要約を高い誤差型カバレッジで生成する。
論文 参考訳(メタデータ) (2023-11-16T02:56:29Z) - Counterfactual Debiasing for Generating Factually Consistent Text
Summaries [46.88138136539263]
我々は,抽象的なテキスト要約のための因果グラフを構築し,事実的矛盾の本質的な原因を同定する。
本稿では,これらのバイアスの因果的影響を,非現実的推定によって緩和する,CoFactSumという脱バイアスフレームワークを提案する。
広く使われている2つの要約データセットの実験は、CoFactSumの有効性を実証している。
論文 参考訳(メタデータ) (2023-05-18T06:15:45Z) - Modular and On-demand Bias Mitigation with Attribute-Removal Subnetworks [10.748627178113418]
本稿では, 単独で高度に疎細なデビアシングワークからなる, 新たなモジュラーバイアス緩和手法を提案する。
我々は、性別、人種、年齢の3つの分類タスクを保護属性として実験する。
論文 参考訳(メタデータ) (2022-05-30T15:21:25Z) - Leveraging Expert Guided Adversarial Augmentation For Improving
Generalization in Named Entity Recognition [50.85774164546487]
名前付きエンティティ認識(NER)システムは、しばしば分散データに対して優れた性能を示すが、シフトした分布から引き出された例では性能が良くない。
本稿では、専門家誘導型を利用してエンティティトークンとその周辺状況を変更することにより、そのエンティティタイプを敵攻撃として変更することを提案する。
その結果、2003年のCoNLLで訓練された最先端のNERシステムは、我々の挑戦的なセットで劇的に性能を低下させることがわかった。
論文 参考訳(メタデータ) (2022-03-21T01:21:12Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。