論文の概要: Lifting Data-Tracing Machine Unlearning to Knowledge-Tracing for Foundation Models
- arxiv url: http://arxiv.org/abs/2506.11253v1
- Date: Thu, 12 Jun 2025 19:51:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.56506
- Title: Lifting Data-Tracing Machine Unlearning to Knowledge-Tracing for Foundation Models
- Title(参考訳): 基礎モデルのための知識トレースに学習しないデータトレースマシンのリフティング
- Authors: Yuwen Tan, Boqing Gong,
- Abstract要約: 我々は、基礎モデル(FM)のための知識トレーシングへのデータトレーシングマシンの無学習化を提案する。
視覚言語FMに関する具体的なケーススタディとして、未学習者が知識追跡マシンの未学習パラダイムをインスタンス化する方法を示す。
- 参考スコア(独自算出の注目度): 29.629102100387716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning removes certain training data points and their influence on AI models (e.g., when a data owner revokes their decision to allow models to learn from the data). In this position paper, we propose to lift data-tracing machine unlearning to knowledge-tracing for foundation models (FMs). We support this position based on practical needs and insights from cognitive studies. Practically, tracing data cannot meet the diverse unlearning requests for FMs, which may be from regulators, enterprise users, product teams, etc., having no access to FMs' massive training data. Instead, it is convenient for these parties to issue an unlearning request about the knowledge or capability FMs (should not) possess. Cognitively, knowledge-tracing unlearning aligns with how the human brain forgets more closely than tracing individual training data points. Finally, we provide a concrete case study about a vision-language FM to illustrate how an unlearner might instantiate the knowledge-tracing machine unlearning paradigm.
- Abstract(参考訳): 機械学習は、特定のトレーニングデータポイントとそのAIモデルへの影響を取り除く(例えば、データ所有者がモデルがデータから学習できるようにする決定を無効にする)。
本稿では,基礎モデル(FM)の知識トレーシングに学習しないデータトレーシングマシンを提案する。
我々は,認知研究の実践的ニーズと洞察に基づいて,この立場を支持する。
実際に、データのトレースは、FMの大規模なトレーニングデータにアクセスできない規制、企業ユーザ、製品チームなどからの、さまざまな未学習要求を満たすことはできない。
その代わり、これらの当事者がFMが持つ知識や能力に関する未学習の要求を発行するのは便利である。
認知的には、知識追跡のアンラーニングは、個々のトレーニングデータポイントを追跡することよりも、人間の脳がより深く忘れる方法と一致します。
最後に、未学習者が知識トレースマシンの学習パラダイムをインスタンス化する方法を説明するために、視覚言語FMに関する具体的なケーススタディを提供する。
関連論文リスト
- Not All Data Are Unlearned Equally [30.936702475759688]
未学習の成功は、モデルの事前学習データにおいて、学習したい知識の頻度に依存するかを検討する。
確率と生成に基づくアンラーニング評価のミスアライメントを発見し、モデルが大きくなるにつれてこの問題が悪化することを示す。
論文 参考訳(メタデータ) (2025-04-07T13:29:02Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Can Bad Teaching Induce Forgetting? Unlearning in Deep Networks using an
Incompetent Teacher [6.884272840652062]
そこで本研究では,学習者・教師の知能・能力に乏しい教師を学習者・教師の枠組みで探究し,忘れがちさを誘発する手法を提案する。
有能で無能な教師からの知識は、学生に選択的に伝達され、忘れデータに関する情報を含まないモデルが得られる。
ゼロ・ナッシング(ZRF)メトリクスを導入し、未学習の手法を評価する。
論文 参考訳(メタデータ) (2022-05-17T05:13:17Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。