論文の概要: Rethinking Deep Alignment Through The Lens Of Incomplete Learning
- arxiv url: http://arxiv.org/abs/2511.12155v1
- Date: Sat, 15 Nov 2025 10:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.644457
- Title: Rethinking Deep Alignment Through The Lens Of Incomplete Learning
- Title(参考訳): 不完全な学習のレンズを通して、深いアライメントを再考する
- Authors: Thong Bach, Dung Nguyen, Thao Minh Le, Truyen Tran,
- Abstract要約: 自己回帰訓練中の位置依存的勾配弱化は信号減衰を引き起こし,不完全安全性学習につながることを示す。
不完全な安全学習の計算指標として,基本条件付きトークンを導入する。
Llama と Qwen モデルファミリ間の実験的評価により, 対向ロバスト性は劇的に向上した。
- 参考スコア(独自算出の注目度): 14.306119791052575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models exhibit systematic vulnerabilities to adversarial attacks despite extensive safety alignment. We provide a mechanistic analysis revealing that position-dependent gradient weakening during autoregressive training creates signal decay, leading to incomplete safety learning where safety training fails to transform model preferences in later response regions fully. We introduce base-favored tokens -- vocabulary elements where base models assign higher probability than aligned models -- as computational indicators of incomplete safety learning and develop a targeted completion method that addresses undertrained regions through adaptive penalties and hybrid teacher distillation. Experimental evaluation across Llama and Qwen model families demonstrates dramatic improvements in adversarial robustness, with 48--98% reductions in attack success rates while preserving general capabilities. These results establish both a mechanistic understanding and practical solutions for fundamental limitations in safety alignment methodologies.
- Abstract(参考訳): 大規模な言語モデルは、広範囲な安全アライメントにもかかわらず、敵攻撃に対する体系的な脆弱性を示す。
本稿では,自己回帰訓練における位置依存的勾配弱化が信号減衰を生じさせ,安全訓練が後続の応答領域におけるモデル嗜好を完全に変換できないような不完全な安全学習につながることを,機械論的解析により明らかにする。
我々は,不完全な安全学習の計算指標として,ベースモデルが整列モデルよりも高い確率を割り当てるボキャブラリ要素を導入し,適応的なペナルティとハイブリッド教師蒸留を通じて,未学習領域に対処する目標完備化手法を開発した。
Llama と Qwen モデルファミリ間の実験的評価により,汎用性を維持しつつ,48~98% の攻撃成功率の低下を図った。
これらの結果は、安全アライメント手法の基本的限界に対する機械的理解と実践的解決の両方を確立する。
関連論文リスト
- Circumventing Safety Alignment in Large Language Models Through Embedding Space Toxicity Attenuation [13.971909819796762]
大規模言語モデル(LLM)は、医療、教育、サイバーセキュリティといった分野で大きな成功を収めている。
埋め込み空間中毒は、敵が入力データの内部意味表現を操作して安全アライメント機構をバイパスする微妙な攻撃ベクトルである。
本稿では,線形変換による埋め込み空間における毒性感受性次元の同定と減衰を行う新しいフレームワークETTAを提案する。
論文 参考訳(メタデータ) (2025-07-08T03:01:00Z) - Leveraging Analytic Gradients in Provably Safe Reinforcement Learning [13.421669637865078]
おそらく安全な強化学習は、安全ガードを用いてそのような保証を提供することを目的とした研究の活発な分野である。
解析勾配に基づく強化学習のための最初の効果的な安全ガードを開発する。
その結果,性能を損なうことなく安全訓練を行うことができた。
論文 参考訳(メタデータ) (2025-06-02T13:35:03Z) - Improving LLM Safety Alignment with Dual-Objective Optimization [81.98466438000086]
大規模言語モデル(LLM)の既存のトレーニング時間安全アライメント技術は、ジェイルブレイク攻撃に対して脆弱なままである。
本研究では,DPOの目的を2つの構成要素にまとめる安全アライメントの改善について提案する。(1) 安全でない世代が部分的に発生しても拒否を促す頑健な拒絶訓練,(2) 有害な知識の未学習。
論文 参考訳(メタデータ) (2025-03-05T18:01:05Z) - Vulnerability Mitigation for Safety-Aligned Language Models via Debiasing [12.986006070964772]
安全性アライメントは、現実世界のAIアプリケーションにとって重要な研究トピックである。
本研究はまず,モデルの有用性を犠牲にすることなく,このような脆弱性を除去することの難しさを明らかにした。
本手法は,安全性を維持しつつモデルの有用性を高め,トレードオフを改善できる。
論文 参考訳(メタデータ) (2025-02-04T09:31:54Z) - Refuse Whenever You Feel Unsafe: Improving Safety in LLMs via Decoupled Refusal Training [67.30423823744506]
我々は,LLMに対して,いかなる応答位置においても有害なプロンプトへのコンプライアンスを拒否する権限を付与する,新しいアプローチであるDecoupled Refusal Training(DeRTa)を導入する。
DeRTaは,(1)安全応答の開始に有害な応答のセグメントを付加することにより,安全でないコンテンツの認識と回避をモデルに訓練する,(2)有害応答シーケンスを通して潜在的障害から安全拒絶へ移行する能力をモデルに装備する強化遷移最適化(RTO)という,2つの新しいコンポーネントを組み込んでいる。
論文 参考訳(メタデータ) (2024-07-12T09:36:33Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Neural Network Repair with Reachability Analysis [10.384532888747993]
安全は次世代の自律性にとって重要な問題であり、知覚と制御のためにディープニューラルネットワークに大きく依存する可能性が高い。
本研究は,安全クリティカルシステムにおける安全でないDNNを到達可能性解析で修復する枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-09T17:56:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。