論文の概要: Preconditioned Test-Time Adaptation for Out-of-Distribution Debiasing in Narrative Generation
- arxiv url: http://arxiv.org/abs/2603.13683v1
- Date: Sat, 14 Mar 2026 01:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.339869
- Title: Preconditioned Test-Time Adaptation for Out-of-Distribution Debiasing in Narrative Generation
- Title(参考訳): 物語生成におけるアウト・オブ・ディストリビューションの事前条件付きテスト時間適応
- Authors: Hanwen Shen, Ting Ying, Jiajie Lu, Shanshan Wang,
- Abstract要約: CAP-TTAは、コンテキスト対応のLoRA更新を実行するテスト時適応フレームワークである。
また,SOTAの脱バイアス効果と同等の脱バイアス効果を保ちながら,SOTAの脱バイアス効果を大幅に向上させる。
- 参考スコア(独自算出の注目度): 4.185138944198652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although debiased LLMs perform well on known bias patterns, they often fail to generalize to unfamiliar bias prompts, producing toxic outputs. We first validate that such high-bias prompts constitute a \emph{distribution shift} via OOD detection, and show static models degrade under this shift. To adapt on-the-fly, we propose \textbf{CAP-TTA}, a test-time adaptation framework that performs context-aware LoRA updates only when the bias-risk \emph{trigger} exceeds a threshold, using a precomputed diagonal \emph{preconditioner} for fast and stable updates. Across toxic-prompt settings and benchmarks, CAP-TTA reduces bias (confirmed by human evaluation) while achieving much lower update latency than AdamW/SGD; it also mitigates catastrophic forgetting by significantly improving narrative fluency over SOTA debiasing baseline while maintaining comparable debiasing effectiveness.
- Abstract(参考訳): 偏りのLLMは既知のバイアスパターンでよく機能するが、よく見慣れないバイアスプロンプトに一般化できず、有毒な出力を生成する。
我々はまず、OOD検出によりそのようなハイバイアスプロンプトが \emph{distribution shift} を構成することを検証し、このシフトの下で静的モデルが劣化することを示す。
高速かつ安定した更新のために事前に計算された対角線対角線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線対向線
有毒なプロンプト設定とベンチマーク全体にわたって、CAP-TTAはバイアスを低減し(人間による評価で確認されている)、AdamW/SGDよりもはるかに低い更新レイテンシを実現している。
関連論文リスト
- RAZOR: Sharpening Knowledge by Cutting Bias with Unsupervised Text Rewriting [16.633948320306832]
手動で構築されたデータセットで一般的なバイアスは、トークンとラベルの間に急激な相関をもたらす可能性がある。
既存のデバイアス法は、しばしば特定のデータセットバイアスに関する事前の知識に依存している。
本稿では,ショートカット緩和のためのテキスト書き直しに基づく,新規で教師なし,データ重視のデバイアス処理手法であるRAZORを提案する。
論文 参考訳(メタデータ) (2024-12-10T17:02:58Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Towards Understanding Task-agnostic Debiasing Through the Lenses of Intrinsic Bias and Forgetfulness [10.081447621656523]
言語モデリング能力に影響を及ぼす影響は、高品質でコンテキストの長いデバイアスコーパスによって緩和することができる。
タスク依存型デバイアスングヒンジの有効性は、下流アプリケーションに使用されるタスク固有データとデバイアスドモデルの両方の量的バイアスレベルに影響を及ぼす。
本稿では,ソーシャル・フェア・デバイアスを下流ファインチューニング,ProSocialTuningに伝達する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-06T15:11:11Z) - Projective Methods for Mitigating Gender Bias in Pre-trained Language Models [10.418595661963062]
プロジェクティブメソッドは実装が高速で、少数の保存されたパラメータを使用し、既存のモデルパラメータを更新しない。
射影法は内在バイアスと下流バイアス軽減の両方に有効であるが, 両者の結果は必ずしも相関しない。
論文 参考訳(メタデータ) (2024-03-27T17:49:31Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Bias-Conflict Sample Synthesis and Adversarial Removal Debias Strategy
for Temporal Sentence Grounding in Video [67.24316233946381]
TSGV(Temporal Sentence Grounding in Video)は、データセットバイアスの問題に悩まされている。
偏りを伴うサンプル合成と逆行性除去脱バイアス戦略(BSSARD)を提案する。
論文 参考訳(メタデータ) (2024-01-15T09:59:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。