論文の概要: Few-Shot Concept Unlearning with Low Rank Adaptation
- arxiv url: http://arxiv.org/abs/2505.12395v1
- Date: Sun, 18 May 2025 12:44:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.208911
- Title: Few-Shot Concept Unlearning with Low Rank Adaptation
- Title(参考訳): 低ランク適応によるFew-Shot概念の学習
- Authors: Udaya Shreyas, L. N. Aadarsh,
- Abstract要約: 画像を生成する場合、これらのモデルは機密画像データを生成することができ、プライバシーを脅かしたり、プライベートエンティティの著作権法に違反する可能性がある。
テキストエンコーダの最終層の勾配を更新することにより,拡散モデルにおける概念の影響を除去するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image Generation models are a trending topic nowadays, with many people utilizing Artificial Intelligence models in order to generate images. There are many such models which, given a prompt of a text, will generate an image which depicts said prompt. There are many image generation models, such as Latent Diffusion Models, Denoising Diffusion Probabilistic Models, Generative Adversarial Networks and many more. When generating images, these models can generate sensitive image data, which can be threatening to privacy or may violate copyright laws of private entities. Machine unlearning aims at removing the influence of specific data subsets from the trained models and in the case of image generation models, remove the influence of a concept such that the model is unable to generate said images of the concept when prompted. Conventional retraining of the model can take upto days, hence fast algorithms are the need of the hour. In this paper we propose an algorithm that aims to remove the influence of concepts in diffusion models through updating the gradients of the final layers of the text encoders. Using a weighted loss function, we utilize backpropagation in order to update the weights of the final layers of the Text Encoder componet of the Stable Diffusion Model, removing influence of the concept from the text-image embedding space, such that when prompted, the result is an image not containing the concept. The weighted loss function makes use of Textual Inversion and Low-Rank Adaptation.We perform our experiments on Latent Diffusion Models, namely the Stable Diffusion v2 model, with an average concept unlearning runtime of 50 seconds using 4-5 images.
- Abstract(参考訳): 画像生成モデルは近年トレンドとなっているトピックであり、多くの人々が画像を生成するために人工知能モデルを使用している。
テキストのプロンプトが与えられた場合、そのようなプロンプトを描写した画像を生成するモデルが多数存在する。
画像生成モデルには、遅延拡散モデル、拡散確率モデル、生成逆数ネットワークなど、多くのものが存在する。
画像を生成する場合、これらのモデルは機密画像データを生成することができ、プライバシーを脅かしたり、プライベートエンティティの著作権法に違反する可能性がある。
機械学習の目的は、訓練されたモデルから特定のデータサブセットの影響を取り除くことであり、画像生成モデルの場合、モデルが誘導された時にその概念のイメージを生成できないような概念の影響を取り除くことである。
従来のモデルの再トレーニングには数日を要するため、高速なアルゴリズムが時間を必要とする。
本稿では,テキストエンコーダの最終層の勾配を更新することにより,拡散モデルにおける概念の影響を除去するアルゴリズムを提案する。
重み付き損失関数を用いて、安定拡散モデルにおけるテキストエンコーダの集合体の最終層の重みを更新し、テキスト画像埋め込み空間から概念の影響を除去し、その結果が概念を含まない画像となるように、バックプロパゲーションを利用する。
重み付き損失関数はテクスチュアル・インバージョンと低ランク適応を用いており、4-5画像を用いて平均50秒の未学習実行時間を持つスタブル・ディフュージョン v2モデルを用いて実験を行った。
関連論文リスト
- Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - DEEM: Diffusion Models Serve as the Eyes of Large Language Models for Image Perception [66.88792390480343]
本稿では,拡散モデルの生成的フィードバックを利用して画像エンコーダのセマンティックな分布を整合させる,シンプルだが効果的なアプローチであるDEEMを提案する。
DEEMは、トレーニング可能なパラメータが少なく、事前学習データが少なく、ベースモデルのサイズが小さいことを利用して、モデル幻覚を軽減するために、強化された堅牢性と優れた能力を示す。
論文 参考訳(メタデータ) (2024-05-24T05:46:04Z) - All but One: Surgical Concept Erasing with Model Preservation in
Text-to-Image Diffusion Models [22.60023885544265]
大規模なデータセットには、性的に明示的な、著作権のある、または望ましくないコンテンツが含まれており、モデルがそれらを直接生成することができる。
拡散モデルにおける概念消去に取り組むために、ファインチューニングアルゴリズムが開発された。
これらの課題をすべて解決する新しいアプローチを提示します。
論文 参考訳(メタデータ) (2023-12-20T07:04:33Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Ablating Concepts in Text-to-Image Diffusion Models [57.9371041022838]
大規模テキスト・画像拡散モデルでは、強力な構成能力を持つ高忠実度画像を生成することができる。
これらのモデルは典型的には膨大な量のインターネットデータに基づいて訓練されており、しばしば著作権のある資料、ライセンスされた画像、個人写真を含んでいる。
本稿では,事前訓練されたモデルにおいて,目標概念の生成を防止し,効率的に概念を宣言する手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。