論文の概要: Lifting Data-Tracing Machine Unlearning to Knowledge-Tracing for Foundation Models
- arxiv url: http://arxiv.org/abs/2506.11253v1
- Date: Thu, 12 Jun 2025 19:51:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.56506
- Title: Lifting Data-Tracing Machine Unlearning to Knowledge-Tracing for Foundation Models
- Title(参考訳): 基礎モデルのための知識トレースに学習しないデータトレースマシンのリフティング
- Authors: Yuwen Tan, Boqing Gong,
- Abstract要約: 我々は、基礎モデル(FM)のための知識トレーシングへのデータトレーシングマシンの無学習化を提案する。
視覚言語FMに関する具体的なケーススタディとして、未学習者が知識追跡マシンの未学習パラダイムをインスタンス化する方法を示す。
- 参考スコア(独自算出の注目度): 29.629102100387716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine unlearning removes certain training data points and their influence on AI models (e.g., when a data owner revokes their decision to allow models to learn from the data). In this position paper, we propose to lift data-tracing machine unlearning to knowledge-tracing for foundation models (FMs). We support this position based on practical needs and insights from cognitive studies. Practically, tracing data cannot meet the diverse unlearning requests for FMs, which may be from regulators, enterprise users, product teams, etc., having no access to FMs' massive training data. Instead, it is convenient for these parties to issue an unlearning request about the knowledge or capability FMs (should not) possess. Cognitively, knowledge-tracing unlearning aligns with how the human brain forgets more closely than tracing individual training data points. Finally, we provide a concrete case study about a vision-language FM to illustrate how an unlearner might instantiate the knowledge-tracing machine unlearning paradigm.
- Abstract(参考訳): 機械学習は、特定のトレーニングデータポイントとそのAIモデルへの影響を取り除く(例えば、データ所有者がモデルがデータから学習できるようにする決定を無効にする)。
本稿では,基礎モデル(FM)の知識トレーシングに学習しないデータトレーシングマシンを提案する。
我々は,認知研究の実践的ニーズと洞察に基づいて,この立場を支持する。
実際に、データのトレースは、FMの大規模なトレーニングデータにアクセスできない規制、企業ユーザ、製品チームなどからの、さまざまな未学習要求を満たすことはできない。
その代わり、これらの当事者がFMが持つ知識や能力に関する未学習の要求を発行するのは便利である。
認知的には、知識追跡のアンラーニングは、個々のトレーニングデータポイントを追跡することよりも、人間の脳がより深く忘れる方法と一致します。
最後に、未学習者が知識トレースマシンの学習パラダイムをインスタンス化する方法を説明するために、視覚言語FMに関する具体的なケーススタディを提供する。
関連論文リスト
- Not All Data Are Unlearned Equally [30.936702475759688]
未学習の成功は、モデルの事前学習データにおいて、学習したい知識の頻度に依存するかを検討する。
確率と生成に基づくアンラーニング評価のミスアライメントを発見し、モデルが大きくなるにつれてこの問題が悪化することを示す。
論文 参考訳(メタデータ) (2025-04-07T13:29:02Z) - A Comprehensive Review on Understanding the Decentralized and Collaborative Approach in Machine Learning [0.0]
機械学習(ML)の登場によって、データから貴重な情報をアンロックする方法は完全に変わりました。
すべてをひとつの場所に格納する従来の手法は、情報を非公開にし、大量のデータを処理し、不公平な優位性を避けるという大きな問題を抱えていた。
私たちは、分散機械学習とそのメリット、例えば、データのプライベート化、回答の高速化、さまざまなデータソースの使用などについて検討しました。
医療と金融の現実的な例は、情報セキュリティを守りながら、コラボレーション機械学習が重要な問題を解決する方法を示すために使用された。
論文 参考訳(メタデータ) (2025-03-12T20:54:22Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - How to unlearn a learned Machine Learning model ? [0.0]
機械学習モデルを学習し、その能力を視覚化するためのエレガントなアルゴリズムを提示します。
基礎となる数学的理論を解明し、所望のデータに対する未学習モデルの性能と望ましくないデータに対する無知の両方を評価するための具体的な指標を確立する。
論文 参考訳(メタデータ) (2024-10-13T17:38:09Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - TOFU: A Task of Fictitious Unlearning for LLMs [99.92305790945507]
Webからの大量のコーパスに基づいてトレーニングされた大規模な言語モデルは、法的および倫理的懸念を提起する機密データやプライベートデータを再現することができる。
トレーニングデータに存在する情報を忘れるためにモデルをチューニングするアンラーニングは、トレーニング後のプライベートデータを保護する手段を提供する。
未学習の理解を深めるためのベンチマークであるTOFUを紹介する。
論文 参考訳(メタデータ) (2024-01-11T18:57:12Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Can Bad Teaching Induce Forgetting? Unlearning in Deep Networks using an
Incompetent Teacher [6.884272840652062]
そこで本研究では,学習者・教師の知能・能力に乏しい教師を学習者・教師の枠組みで探究し,忘れがちさを誘発する手法を提案する。
有能で無能な教師からの知識は、学生に選択的に伝達され、忘れデータに関する情報を含まないモデルが得られる。
ゼロ・ナッシング(ZRF)メトリクスを導入し、未学習の手法を評価する。
論文 参考訳(メタデータ) (2022-05-17T05:13:17Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。