論文の概要: DUSK: Do Not Unlearn Shared Knowledge
- arxiv url: http://arxiv.org/abs/2505.15209v1
- Date: Wed, 21 May 2025 07:37:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.116019
- Title: DUSK: Do Not Unlearn Shared Knowledge
- Title(参考訳): DUSK: 知識を共有してはならない
- Authors: Wonje Jeung, Sangyeon Yoon, Hyesoo Hong, Soeun Kim, Seungju Han, Youngjae Yu, Albert No,
- Abstract要約: Machine Unlearningは、ユーティリティと情報を“保持”セットから保持しながら、そのような“忘れる”データを削除することを目的としている。
DUSKは実データ重なりの非学習手法を評価するためのベンチマークである。
- 参考スコア(独自算出の注目度): 19.614306360050016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed in real-world applications, raising concerns about the unauthorized use of copyrighted or sensitive data. Machine unlearning aims to remove such 'forget' data while preserving utility and information from the 'retain' set. However, existing evaluations typically assume that forget and retain sets are fully disjoint, overlooking realistic scenarios where they share overlapping content. For instance, a news article may need to be unlearned, even though the same event, such as an earthquake in Japan, is also described factually on Wikipedia. Effective unlearning should remove the specific phrasing of the news article while preserving publicly supported facts. In this paper, we introduce DUSK, a benchmark designed to evaluate unlearning methods under realistic data overlap. DUSK constructs document sets that describe the same factual content in different styles, with some shared information appearing across all sets and other content remaining unique to each. When one set is designated for unlearning, an ideal method should remove its unique content while preserving shared facts. We define seven evaluation metrics to assess whether unlearning methods can achieve this selective removal. Our evaluation of nine recent unlearning methods reveals a key limitation: while most can remove surface-level text, they often fail to erase deeper, context-specific knowledge without damaging shared content. We release DUSK as a public benchmark to support the development of more precise and reliable unlearning techniques for real-world applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、現実世界のアプリケーションにますますデプロイされ、著作権や機密データの使用が許可されていないことへの懸念が高まっている。
Machine Unlearningは、ユーティリティと情報を“保持”セットから保持しながら、そのような“忘れる”データを削除することを目的としている。
しかし、既存の評価では、セットを忘れたり保持したりするのは完全に不連続であり、重複するコンテンツを共有する現実的なシナリオを見渡すのが一般的である。
例えば、日本の地震のような同じ出来事がウィキペディアで実際に記述されているとしても、ニュース記事は未学習である必要があるかもしれない。
効果的なアンラーニングは、公的に支持された事実を保持しながら、ニュース記事の特定のフレーズを削除するべきである。
本稿では,現実的なデータ重なり合う非学習手法を評価するためのベンチマークであるDUSKを紹介する。
DUSKは、異なるスタイルで同じ事実を記述した文書セットを構築し、共有された情報がすべてのセットにまたがって表示され、それぞれに固有の内容が残されている。
あるセットがアンラーニング用に指定された場合、理想的な方法は、共有事実を保存しながら、そのユニークなコンテンツを削除すべきである。
我々は,この選択的除去を未学習で達成できるかどうかを評価するために,7つの評価指標を定義した。
最近の9つのアンラーニング手法を評価すると、重要な制限が示される:ほとんどの場合、表層テキストを削除できるが、共有コンテンツを損なうことなく、より深い文脈固有の知識を消去できないことが多い。
我々はDUSKを公開ベンチマークとしてリリースし、現実世界のアプリケーションのためのより正確で信頼性の高いアンラーニング技術の開発を支援する。
関連論文リスト
- Erasing Without Remembering: Implicit Knowledge Forgetting in Large Language Models [70.78205685001168]
我々は,その一般化に着目して,大規模言語モデルにおける知識の忘れについて検討する。
UGBenchは、スコープ内暗黙の知識の未学習を評価するために特別に設計された最初のベンチマークである。
確率に基づく新しいアンラーニングパラダイムであるPerMUを提案する。
論文 参考訳(メタデータ) (2025-02-27T11:03:33Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - To Forget or Not? Towards Practical Knowledge Unlearning for Large Language Models [39.39428450239399]
大規模な言語モデル(LLM)は、個人プライバシー情報や著作権資料などの機密データを必然的に保持する。
知識未学習の最近の進歩は、特定の知識を消去するためにLLMパラメータを更新する。
未学習プロセスが必然的に本質的な知識を消去するかどうかを評価するために KnowUnDo を導入する。
論文 参考訳(メタデータ) (2024-07-02T03:34:16Z) - RWKU: Benchmarking Real-World Knowledge Unlearning for Large Language Models [20.944353802665965]
大きな言語モデル(LLM)は、必然的に、トレーニングコーパスから機密性、著作権、有害な知識を記憶する。
LLMアンラーニングのための実世界知識アンラーニングベンチマーク(RWKU)を提案する。
論文 参考訳(メタデータ) (2024-06-16T10:47:21Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。