論文の概要: CoUn: Empowering Machine Unlearning via Contrastive Learning
- arxiv url: http://arxiv.org/abs/2509.16391v1
- Date: Fri, 19 Sep 2025 20:12:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.767522
- Title: CoUn: Empowering Machine Unlearning via Contrastive Learning
- Title(参考訳): CoUn: コントラスト学習による機械学習の強化
- Authors: Yasser H. Khalil, Mehdi Setayesh, Hongliang Li,
- Abstract要約: CoUnは、保持データのみを使用してスクラッチから再トレーニングされたモデルが、保持データとのセマンティックな類似性に基づいて、忘れデータを分類する、という観察にインスパイアされた、新しいMUフレームワークである。
CoUnは、学習したデータ表現をコントラスト学習(CL)と教師付き学習によって調整し、データを保持するためにのみ適用することで、この振る舞いをエミュレートする。
- 参考スコア(独自算出の注目度): 12.677444111986707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning (MU) aims to remove the influence of specific "forget" data from a trained model while preserving its knowledge of the remaining "retain" data. Existing MU methods based on label manipulation or model weight perturbations often achieve limited unlearning effectiveness. To address this, we introduce CoUn, a novel MU framework inspired by the observation that a model retrained from scratch using only retain data classifies forget data based on their semantic similarity to the retain data. CoUn emulates this behavior by adjusting learned data representations through contrastive learning (CL) and supervised learning, applied exclusively to retain data. Specifically, CoUn (1) leverages semantic similarity between data samples to indirectly adjust forget representations using CL, and (2) maintains retain representations within their respective clusters through supervised learning. Extensive experiments across various datasets and model architectures show that CoUn consistently outperforms state-of-the-art MU baselines in unlearning effectiveness. Additionally, integrating our CL module into existing baselines empowers their unlearning effectiveness.
- Abstract(参考訳): マシン・アンラーニング(MU)は、訓練されたモデルから特定の「忘れられた」データの影響を取り除き、残りの「保持」データの知識を保存することを目的としている。
ラベル操作やモデルウェイト摂動に基づく既存のMU法は、未学習の有効性が制限されることが多い。
そこで本研究では,保持データのみを用いてスクラッチから再学習したモデルが,保持データとのセマンティックな類似性に基づいて,忘れデータを分類する,という観察から着想を得た新しいMUフレームワークであるCoUnを紹介する。
CoUnは、学習したデータ表現をコントラスト学習(CL)と教師付き学習によって調整し、データを保持するためにのみ適用することで、この振る舞いをエミュレートする。
具体的には,(1)データサンプル間のセマンティックな類似性を活用して,CLを用いて間接的に参照表現を調整し,(2)教師付き学習を通じて各クラスタ内に保持表現を保持する。
さまざまなデータセットやモデルアーキテクチャにわたる大規模な実験は、CoUnが非学習効率において最先端のMUベースラインを一貫して上回っていることを示している。
さらに、CLモジュールを既存のベースラインに統合することで、未学習の有効性が向上します。
関連論文リスト
- IMU: Influence-guided Machine Unlearning [12.87795856802456]
マシン・アンラーニング(MU)は、要求に応じて特定のデータポイントを選択的に忘れることを可能にする。
既存のMUアルゴリズムの多くは、保持セットに部分的または完全な微調整を必要とする。
本稿では,インフルエンス誘導型機械学習(IMU)を提案する。
論文 参考訳(メタデータ) (2025-08-03T07:00:28Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Instance-Level Data-Use Auditing of Visual ML Models [49.862257986549885]
機械学習(ML)システムにおけるデータの不正使用に関する法的論争の傾向は、信頼性の高いデータ利用監査機構の必要性を浮き彫りにしている。
本稿では、データ所有者がMLモデルにおける個々のデータインスタンスの使用を監査できるように設計された、最初のプロアクティブな、インスタンスレベルのデータ利用監査手法を提案する。
論文 参考訳(メタデータ) (2025-03-28T13:28:57Z) - CLIPErase: Efficient Unlearning of Visual-Textual Associations in CLIP [57.49519639951552]
CLIPEraseは視覚的・テキスト的関連を選択的に忘れる新しいアプローチである。
CIFAR-100とFlickr30Kデータセットの実験は、CLIPEraseがマルチモーダルサンプルのゼロショットタスクにおける指定された関連性を効果的に忘れていることを示している。
論文 参考訳(メタデータ) (2024-10-30T17:51:31Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Cross-Model Cross-Stream Learning for Self-Supervised Human Action Recognition [19.86316311525552]
本稿ではまず,BYOLと呼ばれる新しいコントラスト学習法を適用し,骨格データから学習する。
SkeletonBYOLにインスパイアされた本論文では,クロスモデルおよびクロスストリームフレームワークをさらに紹介する。
論文 参考訳(メタデータ) (2023-07-15T12:37:18Z) - Self-Taught Metric Learning without Labels [47.832107446521626]
教師なしメトリック学習のための新しい自己学習フレームワークを提案する。
埋め込みモデルの移動平均を通してデータ間のクラス等価関係を予測し、予測された関係を擬似ラベルとして学習する。
論文 参考訳(メタデータ) (2022-05-04T05:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。