論文の概要: Standard vs. Modular Sampling: Best Practices for Reliable LLM Unlearning
- arxiv url: http://arxiv.org/abs/2509.05316v1
- Date: Fri, 29 Aug 2025 19:25:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.917945
- Title: Standard vs. Modular Sampling: Best Practices for Reliable LLM Unlearning
- Title(参考訳): 標準対モジュールサンプリング:信頼性の高いLLMアンラーニングのベストプラクティス
- Authors: Praveen Bushipaka, Lucia Passaro, Tommaso Cucinotta,
- Abstract要約: 従来のLLMアンラーニング設定は、"forget"と"retain"の2つのサブセットから構成される。
既存のベンチマークの一般的な実践は、1つの隣接するセットのみを採用することであり、実際のデータの複雑さや関係性を反映しない一般的な知識を持つ。
以上の結果から,1つの隣り合う集合を頼りにすることは最適であり,標準サンプリング手法は性能のトレードオフを曖昧にすることができることがわかった。
- 参考スコア(独自算出の注目度): 2.4421209936225647
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A conventional LLM Unlearning setting consists of two subsets -"forget" and "retain", with the objectives of removing the undesired knowledge from the forget set while preserving the remaining knowledge from the retain. In privacy-focused unlearning research, a retain set is often further divided into neighbor sets, containing either directly or indirectly connected to the forget targets; and augmented by a general-knowledge set. A common practice in existing benchmarks is to employ only a single neighbor set, with general knowledge which fails to reflect the real-world data complexities and relationships. LLM Unlearning typically involves 1:1 sampling or cyclic iteration sampling. However, the efficacy and stability of these de facto standards have not been critically examined. In this study, we systematically evaluate these common practices. Our findings reveal that relying on a single neighbor set is suboptimal and that a standard sampling approach can obscure performance trade-offs. Based on this analysis, we propose and validate an initial set of best practices: (1) Incorporation of diverse neighbor sets to balance forget efficacy and model utility, (2) Standard 1:1 sampling methods are inefficient and yield poor results, (3) Our proposed Modular Entity-Level Unlearning (MELU) strategy as an alternative to cyclic sampling. We demonstrate that this modular approach, combined with robust algorithms, provides a clear and stable path towards effective unlearning.
- Abstract(参考訳): 従来のLLMアンラーニング・セッティングは2つのサブセット("forget"と"retain")で構成され、未望の知識を忘れ物から取り除き、残りの知識を保持物から保存する。
プライバシーに焦点をあてた未学習の研究において、保持セットは、しばしば、直接または間接的に忘れの標的に接続された隣接セットに分割され、一般的な知識セットによって拡張される。
既存のベンチマークの一般的な実践は、1つの隣接するセットのみを採用することであり、実際のデータの複雑さと関係性を反映しない一般的な知識を持つ。
LLMアンラーニングは通常、1:1サンプリングまたは循環的な反復サンプリングを含む。
しかし、これらのデファクト標準の有効性と安定性については批判的な評価がなされていない。
本研究では,これらの実践を体系的に評価する。
以上の結果から,1つの隣り合う集合を頼りにすることは最適であり,標準サンプリング手法は性能のトレードオフを曖昧にすることができることがわかった。
この分析に基づいて,(1) 様々な近隣集合を組み込んで, 効率とモデルの有用性のバランスをとること,(2) 標準1:1サンプリング手法は非効率であり, 結果が得られないこと,(3) 循環的サンプリングの代替として, モジュール・エンティティ・レベル・アンラーニング(MELU) 戦略を提案する。
このモジュラーアプローチとロバストなアルゴリズムが組み合わさって、効果的なアンラーニングへの明確かつ安定した道筋を提供することを示した。
関連論文リスト
- Efficient Uncertainty in LLMs through Evidential Knowledge Distillation [3.864321514889099]
性能を犠牲にすることなく,LLMの効率的かつ効果的な不確実性評価を可能にする新しい手法を提案する。
我々は、不確実性を考慮した教師モデルを、同じアーキテクチャを共有するコンパクトな学生モデルに蒸留するが、Lo-Rank Adaptation (LoRA)を用いて微調整する。
分類データセットに関する実証的な評価は、そのような学生が同等または優れた予測的・不確実性定量化性能を達成できることを証明している。
論文 参考訳(メタデータ) (2025-07-24T12:46:40Z) - OpenUnlearning: Accelerating LLM Unlearning via Unified Benchmarking of Methods and Metrics [101.78963920333342]
我々は,大規模言語モデル(LLM)のアンラーニング手法とメトリクスをベンチマークするための標準フレームワークであるOpenUnlearningを紹介する。
OpenUnlearningは、9つのアンラーニングアルゴリズムと16のさまざまな評価を3つの主要なベンチマークで統合する。
また、多様なアンラーニング手法をベンチマークし、広範囲な評価スイートとの比較分析を行う。
論文 参考訳(メタデータ) (2025-06-14T20:16:37Z) - Semantic Retrieval Augmented Contrastive Learning for Sequential Recommendation [17.18176550968383]
本稿では,SRA-CL(Semantic Retrieval Augmented Contrastive Learning)という手法を提案する。
SRA-CLは、(1)大規模言語モデル(LLM)を利用して多様なユーザの嗜好を理解し、意味的に類似したユーザを検索して、学習可能なサンプル手法で信頼性の高い正のサンプルを作成する、(2) LLMを使ってアイテムを理解し、類似したアイテムを検索する、アイテムセマンティック検索という2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2025-03-06T07:25:19Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Finite-Time Convergence and Sample Complexity of Actor-Critic Multi-Objective Reinforcement Learning [20.491176017183044]
本稿では多目的強化学習(MORL)問題に取り組む。
MOACと呼ばれる革新的なアクター批判アルゴリズムを導入し、競合する報酬信号間のトレードオフを反復的に行うことでポリシーを見出す。
論文 参考訳(メタデータ) (2024-05-05T23:52:57Z) - Realistic Unsupervised CLIP Fine-tuning with Universal Entropy Optimization [101.08992036691673]
本稿では,未知のクラスにおける配布外サンプルの存在を考慮し,教師なしの微調整シナリオについて考察する。
特に,分布外検出と既知のクラスに関連するインスタンスの認識を同時に強化することに注力する。
我々はUniversal Entropy Optimization(UEO)と呼ばれるシンプルで効率的で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-24T16:47:17Z) - Single-Trajectory Distributionally Robust Reinforcement Learning [21.955807398493334]
本研究では,分散ロバストRL (DRRL) を提案する。
既存のDRRLアルゴリズムはモデルベースか、1つのサンプル軌道から学習できないかのいずれかである。
単一軌道を用いた分散ロバストQ-ラーニング(DRQ)と呼ばれる,完全モデルフリーなDRRLアルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-01-27T14:08:09Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。