論文の概要: CE-U: Cross Entropy Unlearning
- arxiv url: http://arxiv.org/abs/2503.01224v3
- Date: Wed, 12 Mar 2025 19:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 14:52:25.590231
- Title: CE-U: Cross Entropy Unlearning
- Title(参考訳): CE-U:クロスエントロピーアンラーニング
- Authors: Bo Yang,
- Abstract要約: 本研究では, CE-U (Cross Entropy Unlearning) を提案する。
また、標準的なクロス・エントロピー監視とクロス・エントロピー・アンラーニングを単一のフレームワークに統合します。
- 参考スコア(独自算出の注目度): 4.12935843184402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models inadvertently memorize sensitive data from their massive pretraining corpora \cite{jang2022knowledge}. In this work, we propose CE-U (Cross Entropy Unlearning), a novel loss function for unlearning. CE-U addresses fundamental limitations of gradient ascent approaches which suffer from instability due to vanishing gradients when model confidence is high and gradient exploding when confidence is low. We also unify standard cross entropy supervision and cross entropy unlearning into a single framework. Notably, on the TOFU benchmark for unlearning \cite{maini2024tofu}, CE-U achieves state-of-the-art results on LLaMA2-7B forgetting, even without the use of any extra reference model or additional positive samples. Our theoretical analysis further reveals that the gradient instability issues also exist in popular reinforcement learning algorithms like DPO \cite{rafailov2023direct} and GRPO \cite{Shao2024DeepSeekMath}, as they include a gradient ascent component. This suggests that applying CE-U principles to reinforcement learning could be a promising direction for improving stability and convergence.
- Abstract(参考訳): 大規模言語モデルは、その巨大な事前学習コーパスである{jang2022knowledge} から機密データを不注意に記憶する。
本研究では,CE-U(Cross Entropy Unlearning)を提案する。
CE-Uは、モデル信頼度が高く、信頼度が低いときに勾配が爆発することによる不安定性に悩まされる勾配上昇アプローチの基本的な制限に対処する。
また、標準的なクロス・エントロピー監視とクロス・エントロピー・アンラーニングを単一のフレームワークに統合します。
特に、未学習の cite{maini2024tofu} のためのTOFU ベンチマークでは、CE-U は LLaMA2-7B を忘れることなく、余分な参照モデルや追加の正のサンプルを使わずに、最先端の結果を達成している。
DPO \cite{rafailov2023direct} や GRPO \cite{Shao2024DeepSeekMath} のような、勾配上昇成分を含む一般的な強化学習アルゴリズムにも勾配不安定性の問題が存在することが、我々の理論的解析により明らかにされている。
このことは、CE-Uの原則を強化学習に適用することは、安定性と収束性を改善するための有望な方向である可能性を示唆している。
関連論文リスト
- Boosting Alignment for Post-Unlearning Text-to-Image Generative Models [55.82190434534429]
大規模な生成モデルは、大量のデータによって推進される印象的な画像生成能力を示している。
これはしばしば必然的に有害なコンテンツや不適切なコンテンツを生み出し、著作権の懸念を引き起こす。
学習しない反復ごとに最適なモデル更新を求めるフレームワークを提案し、両方の目的に対して単調な改善を確実にする。
論文 参考訳(メタデータ) (2024-12-09T21:36:10Z) - Streamlined Federated Unlearning: Unite as One to Be Highly Efficient [12.467630082668254]
近年,「忘れられる権利」の制定は,連邦学習(FL)に新たなプライバシー要件を課している。
本研究では, モデル性能を劣化することなく保持データに保存しつつ, 対象データの影響を効果的に除去することを目的とした, 合理化アンラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-11-28T12:52:48Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - CLCE: An Approach to Refining Cross-Entropy and Contrastive Learning for Optimized Learning Fusion [15.106479030601378]
クロスエントロピー損失(CE)はモデルの一般化と安定性を損なう可能性がある。
本稿では,Contrastive Learning と CE を統合した CLCE という新しいアプローチを提案する。
CLCEは12ベンチマークでCEのTop-1精度を大きく上回っている。
論文 参考訳(メタデータ) (2024-02-22T13:45:01Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Fast-ELECTRA for Efficient Pre-training [83.29484808667532]
ELECTRAは補助モデルに置き換えられたシーケンス内のトークンを検出して、言語モデルを事前訓練する。
本稿では,既存の言語モデルを補助モデルとして活用したFast-ELECTRAを提案する。
提案手法は,最先端のELECTRA型事前学習手法の性能に匹敵するが,補助モデルの連成学習による計算とメモリコストは著しく削減される。
論文 参考訳(メタデータ) (2023-10-11T09:55:46Z) - U-CE: Uncertainty-aware Cross-Entropy for Semantic Segmentation [11.099838952805325]
我々は、よく知られたクロスエントロピー損失(CE)のピクセルワイド重み付けにより、動的予測の不確かさをトレーニングプロセスに組み込んだ、不確かさを意識したクロスエントロピー損失(U-CE)を提案する。
本稿では、ResNet-18とResNet-101という2つの一般的なバックボーンアーキテクチャを用いて、CityscapesとACDCの2つのベンチマークデータセット上での通常のCEトレーニングよりも、U-CEの方が優れていることを示す。
論文 参考訳(メタデータ) (2023-07-19T12:41:54Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Byzantine-Robust Learning on Heterogeneous Data via Gradient Splitting [58.91947205027892]
フェデレーテッド・ラーニングはビザンツの攻撃に対する脆弱性を示している。
ビザンティン攻撃者は、任意の勾配を中央サーバに送ることで、グローバルモデルの収束と性能を破壊することができる。
アグレゲーション・ルール(AGR)は、ビザンツの攻撃から守るために提案されている。
論文 参考訳(メタデータ) (2023-02-13T03:31:50Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - CorDEL: A Contrastive Deep Learning Approach for Entity Linkage [70.82533554253335]
エンティティリンケージ(EL)は、データのクリーニングと統合において重要な問題である。
新たなデータの増加に伴い、ディープラーニング(DL)ベースのアプローチが提案され、従来のモデルに付随するELの高コスト化が図られている。
我々は、ツインネットワークアーキテクチャはELに準最適であり、既存のモデルに固有の欠点をもたらすと主張している。
論文 参考訳(メタデータ) (2020-09-15T16:33:05Z) - Unbiased Risk Estimators Can Mislead: A Case Study of Learning with
Complementary Labels [92.98756432746482]
我々は,補完ラベルを用いた学習という,弱教師付き問題を研究する。
勾配推定の品質はリスク最小化においてより重要であることを示す。
本稿では,ゼロバイアスと分散の低減を両立させる新しい補助的相補的損失(SCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-05T04:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。