論文の概要: Rethinking Machine Unlearning in Image Generation Models
- arxiv url: http://arxiv.org/abs/2506.02761v1
- Date: Tue, 03 Jun 2025 11:25:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.611275
- Title: Rethinking Machine Unlearning in Image Generation Models
- Title(参考訳): 画像生成モデルにおける機械学習の再考
- Authors: Renyang Liu, Wenjie Feng, Tianwei Zhang, Wei Zhou, Xueqi Cheng, See-Kiong Ng,
- Abstract要約: CatIGMUは、新しい階層的なタスク分類フレームワークである。
EvalIGMUは包括的な評価フレームワークである。
高品質な未学習データセットであるDataIGMを構築した。
- 参考スコア(独自算出の注目度): 59.697750585491264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the surge and widespread application of image generation models, data privacy and content safety have become major concerns and attracted great attention from users, service providers, and policymakers. Machine unlearning (MU) is recognized as a cost-effective and promising means to address these challenges. Despite some advancements, image generation model unlearning (IGMU) still faces remarkable gaps in practice, e.g., unclear task discrimination and unlearning guidelines, lack of an effective evaluation framework, and unreliable evaluation metrics. These can hinder the understanding of unlearning mechanisms and the design of practical unlearning algorithms. We perform exhaustive assessments over existing state-of-the-art unlearning algorithms and evaluation standards, and discover several critical flaws and challenges in IGMU tasks. Driven by these limitations, we make several core contributions, to facilitate the comprehensive understanding, standardized categorization, and reliable evaluation of IGMU. Specifically, (1) We design CatIGMU, a novel hierarchical task categorization framework. It provides detailed implementation guidance for IGMU, assisting in the design of unlearning algorithms and the construction of testbeds. (2) We introduce EvalIGMU, a comprehensive evaluation framework. It includes reliable quantitative metrics across five critical aspects. (3) We construct DataIGM, a high-quality unlearning dataset, which can be used for extensive evaluations of IGMU, training content detectors for judgment, and benchmarking the state-of-the-art unlearning algorithms. With EvalIGMU and DataIGM, we discover that most existing IGMU algorithms cannot handle the unlearning well across different evaluation dimensions, especially for preservation and robustness. Code and models are available at https://github.com/ryliu68/IGMU.
- Abstract(参考訳): 画像生成モデルの普及と普及に伴い、データプライバシとコンテンツの安全性が大きな関心事となり、ユーザやサービスプロバイダ、政策立案者から大きな注目を集めている。
マシン・アンラーニング(MU)は、これらの課題に対処するための費用対効果と有望な手段として認識されている。
いくつかの進歩にもかかわらず、画像生成モデルアンラーニング(IGMU)は、例えば、不明瞭なタスク識別と未学習ガイドライン、効果的な評価フレームワークの欠如、信頼できない評価指標など、実践において目覚ましいギャップに直面している。
これらは、未学習のメカニズムと実践的未学習アルゴリズムの設計の理解を妨げる可能性がある。
我々は、既存の最先端の未学習アルゴリズムと評価基準に対して徹底的な評価を行い、IGMUタスクにおけるいくつかの重大な欠陥や課題を発見する。
これらの制限によって、包括的理解、標準化された分類、IGMUの信頼性評価を促進するために、いくつかのコアコントリビューションを行います。
具体的には,(1)新しい階層型タスク分類フレームワークであるCatIGMUを設計する。
IGMUの詳細な実装ガイダンスを提供し、未学習アルゴリズムの設計とテストベッドの構築を支援する。
2)包括的評価フレームワークであるEvalIGMUを紹介する。
5つの重要な側面にわたる信頼性のある定量的指標を含んでいる。
(3) 高品質な未学習データセットであるDataIGMを構築し、IGMUの広範な評価、判断のためのコンテンツ検出装置の訓練、最先端の未学習アルゴリズムのベンチマークを行う。
EvalIGMUとDataIGMにより、既存のIGMUアルゴリズムは、様々な評価次元、特に保存と堅牢性において、未学習をうまく扱えないことがわかった。
コードとモデルはhttps://github.com/ryliu68/IGMUで公開されている。
関連論文リスト
- Does Machine Unlearning Truly Remove Model Knowledge? A Framework for Auditing Unlearning in LLMs [58.24692529185971]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - MUBox: A Critical Evaluation Framework of Deep Machine Unlearning [13.186439491394474]
MUBoxは、ディープラーニングにおける未学習の手法を評価するために設計された総合的なプラットフォームである。
MUBoxは23の高度なアンラーニング技術を統合し、11の多様な評価指標で6つの実践シナリオでテストされている。
論文 参考訳(メタデータ) (2025-05-13T13:50:51Z) - Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [92.99416966226724]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。