論文の概要: Unleashing Uncertainty: Efficient Machine Unlearning for Generative AI
- arxiv url: http://arxiv.org/abs/2508.20773v1
- Date: Thu, 28 Aug 2025 13:29:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.422055
- Title: Unleashing Uncertainty: Efficient Machine Unlearning for Generative AI
- Title(参考訳): アンリーシングの不確実性: ジェネレーティブAIのための効率的な機械学習
- Authors: Christoforos N. Spartalis, Theodoros Semertzidis, Petros Daras, Efstratios Gavves,
- Abstract要約: 拡散モデルにおける機械アンラーニングの新しい手法であるSAFEMaxを紹介する。
以上の結果から,SAFEMaxの有効性を実証し,最先端手法よりも高い効率性を示した。
- 参考スコア(独自算出の注目度): 29.828117632855882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SAFEMax, a novel method for Machine Unlearning in diffusion models. Grounded in information-theoretic principles, SAFEMax maximizes the entropy in generated images, causing the model to generate Gaussian noise when conditioned on impermissible classes by ultimately halting its denoising process. Also, our method controls the balance between forgetting and retention by selectively focusing on the early diffusion steps, where class-specific information is prominent. Our results demonstrate the effectiveness of SAFEMax and highlight its substantial efficiency gains over state-of-the-art methods.
- Abstract(参考訳): 拡散モデルにおける機械アンラーニングの新しい手法であるSAFEMaxを紹介する。
情報理論の原理に基づき、SAFEMaxは生成した画像のエントロピーを最大化し、最終的にデノナイジングプロセスを停止することで、不許容クラスに条件付けされたときにガウスノイズを発生させる。
また,クラス固有の情報を目立たせる早期拡散ステップに選択的に焦点をあてて,忘れと保持のバランスを制御する。
以上の結果から,SAFEMaxの有効性を実証し,最先端手法よりも高い効率性を示した。
関連論文リスト
- Concept Unlearning by Modeling Key Steps of Diffusion Process [16.902624082013872]
テキスト・ツー・イメージ拡散モデル(T2I DM)は、テキスト入力に基づいて、非常にリアルな画像を生成する。
学習効率と生成可能性のバランスをとるために,キーステップ概念学習法(KSCU)を提案する。
KSCUは、T2I DMが望ましくない画像を生成するのを効果的に防ぎながら、モデルの生成能力を向上することを示した。
論文 参考訳(メタデータ) (2025-07-09T03:55:58Z) - Winning the MIDST Challenge: New Membership Inference Attacks on Diffusion Models for Tabular Data Synthesis [10.682673935815547]
既存のプライバシー評価は、しばしばメトリクスや弱いメンバーシップ推論攻撃(MIA)に依存している。
本研究では,拡散に基づく合成に関する厳密なMIA研究を行い,画像モデル用に設計された最先端の攻撃がこの環境で失敗することを明らかにする。
本手法は,ライトウェイト駆動方式で実装され,手動最適化の必要性をなくし,メンバーシップシグナルを効果的に学習する。
論文 参考訳(メタデータ) (2025-03-15T06:13:27Z) - Score Forgetting Distillation: A Swift, Data-Free Method for Machine Unlearning in Diffusion Models [63.43422118066493]
マシン・アンラーニング(MU)は安全でセキュアで信頼性の高いGenAIモデルを開発する上で重要な基盤である。
従来のMUメソッドは、しばしば厳密な仮定に依存し、実際のデータへのアクセスを必要とする。
本稿では,拡散モデルにおいて望ましくない情報を忘れることを促進する革新的なMUアプローチであるScore Forgetting Distillation (SFD)を紹介する。
論文 参考訳(メタデータ) (2024-09-17T14:12:50Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。