論文の概要: MemControl: Mitigating Memorization in Diffusion Models via Automated Parameter Selection
- arxiv url: http://arxiv.org/abs/2405.19458v3
- Date: Mon, 04 Nov 2024 08:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:43:33.875714
- Title: MemControl: Mitigating Memorization in Diffusion Models via Automated Parameter Selection
- Title(参考訳): MemControl:自動パラメータ選択による拡散モデルにおける記憶の緩和
- Authors: Raman Dutt, Ondrej Bohdal, Pedro Sanchez, Sotirios A. Tsaftaris, Timothy Hospedales,
- Abstract要約: 拡散モデルは、トレーニングデータによく似ているが、データ記憶の影響を受ける画像を生成するのに優れている。
微調整時のモデル容量の正規化がこの問題を軽減することを提案する。
当社のフレームワークは大規模データセットにスケーラブルで,関数の報酬に依存せず,既存のアプローチと統合することで,メモリ化の軽減を実現しています。
- 参考スコア(独自算出の注目度): 15.477246927584499
- License:
- Abstract: Diffusion models excel in generating images that closely resemble their training data but are also susceptible to data memorization, raising privacy, ethical, and legal concerns, particularly in sensitive domains such as medical imaging. We hypothesize that this memorization stems from the overparameterization of deep models and propose that regularizing model capacity during fine-tuning can mitigate this issue. Firstly, we empirically show that regulating the model capacity via Parameter-efficient fine-tuning (PEFT) mitigates memorization to some extent, however, it further requires the identification of the exact parameter subsets to be fine-tuned for high-quality generation. To identify these subsets, we introduce a bi-level optimization framework, MemControl, that automates parameter selection using memorization and generation quality metrics as rewards during fine-tuning. The parameter subsets discovered through MemControl achieve a superior tradeoff between generation quality and memorization. For the task of medical image generation, our approach outperforms existing state-of-the-art memorization mitigation strategies by fine-tuning as few as 0.019% of model parameters. Moreover, we demonstrate that the discovered parameter subsets are transferable to non-medical domains. Our framework is scalable to large datasets, agnostic to reward functions, and can be integrated with existing approaches for further memorization mitigation. To the best of our knowledge, this is the first study to empirically evaluate memorization in medical images and propose a targeted yet universal mitigation strategy. The code is available at https://github.com/Raman1121/Diffusion_Memorization_HPO
- Abstract(参考訳): 拡散モデルは、トレーニングデータによく似ているが、データの記憶、プライバシー、倫理的、法的懸念、特に医用画像のような繊細な領域での影響を受けやすい画像を生成するのに優れている。
この暗記は深層モデルの過度パラメータ化に起因すると仮定し、微調整時のモデル容量の正規化がこの問題を軽減することを提案する。
まず,パラメータ効率のよい微調整(PEFT)によるモデルキャパシティの調整により,ある程度の記憶が緩和されることを実証的に示す。
これらのサブセットを特定するために,メモリ化と生成品質メトリクスを用いたパラメータ選択を微調整時の報酬として自動化する,双方向最適化フレームワークであるMemControlを導入する。
MemControlで発見されたパラメータサブセットは、生成品質と記憶のトレードオフが優れている。
医用画像生成の課題に対して,本手法はモデルパラメータの0.019%を微調整することにより,既存の最先端記憶緩和戦略よりも優れていた。
さらに,検出したパラメータサブセットが非医療領域に転送可能であることを示す。
当社のフレームワークは大規模データセットにスケーラブルで,関数の報酬に依存せず,既存のアプローチと統合することで,メモリ化の軽減を実現しています。
本研究は,医用画像の暗記を実証的に評価し,汎用的な緩和戦略を提案する最初の研究である。
コードはhttps://github.com/Raman1121/Diffusion_Memorization_HPOで公開されている。
関連論文リスト
- Capacity Control is an Effective Memorization Mitigation Mechanism in Text-Conditional Diffusion Models [15.477246927584499]
採用。
プレトレインファインチューンパラダイムにおけるPEFT(Efficient Fine-Tuning)は,メモリ化を著しく低減する。
その結果,PEFTは記憶度を低下させるだけでなく,下流の音質を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-10-29T15:47:31Z) - Deep Learning to Predict Late-Onset Breast Cancer Metastasis: the Single Hyperparameter Grid Search (SHGS) Strategy for Meta Tuning Concerning Deep Feed-forward Neural Network [7.332652485849632]
n年前から乳がんの転移を予測できるDFNNモデルの構築に取り組んできた。
この課題は、時間とリソースの制約を考慮して、グリッドサーチによって最適なハイパーパラメータ値を効率的に特定することにある。
論文 参考訳(メタデータ) (2024-08-28T03:00:43Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Should We Learn Most Likely Functions or Parameters? [51.133793272222874]
モデルとデータによって示唆される最も可能性の高い関数を直接推定する利点と欠点について検討する。
関数空間MAP推定は, より平坦な最小化, 一般化, オーバーフィッティングの改善につながる可能性がある。
論文 参考訳(メタデータ) (2023-11-27T16:39:55Z) - GSMorph: Gradient Surgery for cine-MRI Cardiac Deformable Registration [62.41725951450803]
学習に基づく変形可能な登録は、フィールドの登録精度と滑らかさをトレードオフする重み付けされた目的関数に依存する。
我々は,GSMorphと呼ばれる勾配手術機構に基づく登録モデルを構築し,複数の損失に対してパラメータフリーな高バランスを実現する。
提案手法はモデルに依存しないため,パラメータの追加や推論の遅延を伴わずに,任意のディープ登録ネットワークにマージすることができる。
論文 参考訳(メタデータ) (2023-06-26T13:32:09Z) - Reverse Engineering Breast MRIs: Predicting Acquisition Parameters
Directly from Images [1.256413718364189]
本稿では,MR画像生成に使用する複雑なIAPを,画像のみを用いて高精度に予測するニューラルネットワークモデルを提案する。
コントラストエージェントタイプのような難しいパラメータでさえ、精度良く予測できる。
論文 参考訳(メタデータ) (2023-03-08T22:02:15Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Learning the Effect of Registration Hyperparameters with HyperMorph [7.313453912494172]
我々は,学習に基づく変形可能な画像登録において,効率的なハイパーパラメータチューニングを容易にするHyperMorphを紹介した。
本研究では,高速かつ高分解能なハイパーパラメータ探索を実現することで,従来の手法の非効率性を低減できることを示す。
論文 参考訳(メタデータ) (2022-03-30T21:30:06Z) - HyperMorph: Amortized Hyperparameter Learning for Image Registration [8.13669868327082]
HyperMorphは、変形可能な画像登録のための学習ベースの戦略です。
既存の検索戦略よりもはるかに高速に複数のハイパーパラメータを最適化できることを示す。
論文 参考訳(メタデータ) (2021-01-04T15:39:16Z) - On the Sparsity of Neural Machine Translation Models [65.49762428553345]
性能向上のために冗長パラメータを再利用できるかどうかを検討する。
実験と分析は異なるデータセットとNTTアーキテクチャで体系的に行われる。
論文 参考訳(メタデータ) (2020-10-06T11:47:20Z) - Rethinking the Hyperparameters for Fine-tuning [78.15505286781293]
事前訓練されたImageNetモデルからの微調整は、様々なコンピュータビジョンタスクのデファクトスタンダードとなっている。
ファインチューニングの現在のプラクティスは、通常、ハイパーパラメータのアドホックな選択を選択することである。
本稿では、微調整のためのハイパーパラメータの設定に関するいくつかの一般的なプラクティスを再検討する。
論文 参考訳(メタデータ) (2020-02-19T18:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。