論文の概要: Continual Learning of Personalized Generative Face Models with Experience Replay
- arxiv url: http://arxiv.org/abs/2412.02627v1
- Date: Tue, 03 Dec 2024 17:56:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:14.775611
- Title: Continual Learning of Personalized Generative Face Models with Experience Replay
- Title(参考訳): 体験リプレイによる個人化顔モデルの連続学習
- Authors: Annie N. Wang, Luchao Qi, Roni Sengupta,
- Abstract要約: 個人化された2Dおよび3D生成顔モデルの重みを逐次更新する方法である。
我々は,モデルが連続的に微調整されることで,過去の顔の表現を破滅的に忘れてしまうことを観察した。
本稿では,ランダムサンプリングとStyleGANの潜在空間を組み合わせ,バッファを最適な凸殻として表現する新しい経験再生アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.024113475677323
- License:
- Abstract: We introduce a novel continual learning problem: how to sequentially update the weights of a personalized 2D and 3D generative face model as new batches of photos in different appearances, styles, poses, and lighting are captured regularly. We observe that naive sequential fine-tuning of the model leads to catastrophic forgetting of past representations of the individual's face. We then demonstrate that a simple random sampling-based experience replay method is effective at mitigating catastrophic forgetting when a relatively large number of images can be stored and replayed. However, for long-term deployment of these models with relatively smaller storage, this simple random sampling-based replay technique also forgets past representations. Thus, we introduce a novel experience replay algorithm that combines random sampling with StyleGAN's latent space to represent the buffer as an optimal convex hull. We observe that our proposed convex hull-based experience replay is more effective in preventing forgetting than a random sampling baseline and the lower bound.
- Abstract(参考訳): 個人化された2Dおよび3D生成顔モデルの重みを、異なる外観、スタイル、ポーズ、照明の新たなバッチとして逐次更新する方法を定期的に取得する。
我々は,モデルが連続的に微調整されることで,過去の顔の表現を破滅的に忘れてしまうことを観察した。
そこで我々は,比較的多数の画像の保存と再生が可能な場合,単純なランダムサンプリングに基づく経験再生法が破滅的忘れの軽減に有効であることを実証した。
しかし、比較的小さなストレージを持つこれらのモデルの長期展開には、この単純なランダムサンプリングベースのリプレイ技術も過去の表現を忘れている。
そこで我々は,ランダムサンプリングとStyleGANの潜在空間を組み合わせ,バッファを最適な凸包として表現する新しい経験再生アルゴリズムを提案する。
提案した凸船体を用いた経験リプレイは, ランダムサンプリングベースラインや下界よりも, 忘れることの防止に有効である。
関連論文リスト
- Non-Uniform Memory Sampling in Experience Replay [1.9580473532948401]
破滅的な忘れを和らげるための一般的な戦略は、経験的なリプレイである。
ほとんどのアプローチでは、このバッファからのサンプリングはデフォルトで一様であると仮定する。
我々は試験毎に50種類の非一様サンプリング確率重みを生成し、最終的な精度を一様サンプリング基準値と比較する。
論文 参考訳(メタデータ) (2025-02-16T23:04:16Z) - Redistribute Ensemble Training for Mitigating Memorization in Diffusion Models [31.92526915009259]
拡散モデルは非常に高品質なサンプルを生成する能力で知られている。
最近のメモリ緩和法は、主にテキストモダリティの文脈における問題に対処している。
本稿では,視覚的モダリティの観点からの拡散モデルの新たな手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T15:56:44Z) - Posterior sampling via Langevin dynamics based on generative priors [31.84543941736757]
生成モデルを用いた高次元空間における後方サンプリングは、様々な応用に有望である。
既存の手法では、新しいサンプルごとに生成プロセス全体を再起動する必要があるため、計算コストがかかる。
事前学習した生成モデルの雑音空間におけるランゲヴィンダイナミクスをシミュレーションし,効率的な後部サンプリングを提案する。
論文 参考訳(メタデータ) (2024-10-02T22:57:47Z) - Self-Guided Generation of Minority Samples Using Diffusion Models [57.319845580050924]
データ多様体の低密度領域に居住する少数サンプルを生成するための新しい手法を提案する。
我々のフレームワークは拡散モデルに基づいて構築されており、ガイドドサンプリングの原理を生かしている。
実データセットのベンチマーク実験により、我々のアプローチは現実的な低自由度マイノリティインスタンスを作成する能力を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-07-16T10:03:29Z) - GUIDE: Guidance-based Incremental Learning with Diffusion Models [3.046689922445082]
GUIDEは,拡散モデルからサンプルのリハーサルを誘導する,新しい連続学習手法である。
実験の結果,GUIDEは破滅的忘れを著しく減らし,従来のランダムサンプリング手法より優れ,生成的再生を伴う継続的な学習における最近の最先端の手法を超越した。
論文 参考訳(メタデータ) (2024-03-06T18:47:32Z) - Deceptive-NeRF/3DGS: Diffusion-Generated Pseudo-Observations for High-Quality Sparse-View Reconstruction [60.52716381465063]
我々は,限られた入力画像のみを用いて,スパースビュー再構成を改善するために,Deceptive-NeRF/3DGSを導入した。
具体的には,少数視点再構成によるノイズ画像から高品質な擬似観測へ変換する,偽拡散モデルを提案する。
本システムでは,拡散生成擬似観測をトレーニング画像集合に徐々に組み込んで,スパース入力観測を5倍から10倍に高めている。
論文 参考訳(メタデータ) (2023-05-24T14:00:32Z) - ReDi: Efficient Learning-Free Diffusion Inference via Trajectory
Retrieval [68.7008281316644]
ReDiは学習不要なRetrievalベースの拡散サンプリングフレームワークである。
ReDi はモデル推論効率を 2 倍高速化することを示した。
論文 参考訳(メタデータ) (2023-02-05T03:01:28Z) - LiP-Flow: Learning Inference-time Priors for Codec Avatars via
Normalizing Flows in Latent Space [90.74976459491303]
実行時入力に条件付けされた先行モデルを導入し、この先行空間を潜伏空間の正規化フローを介して3次元顔モデルに結びつける。
正規化フローは2つの表現空間をブリッジし、潜在サンプルをある領域から別の領域に変換することで、潜在可能性の目的を定義する。
提案手法は,表情のダイナミックスや微妙な表現をよりよく捉えることによって,表現的かつ効果的に先行することを示す。
論文 参考訳(メタデータ) (2022-03-15T13:22:57Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - Anytime Sampling for Autoregressive Models via Ordered Autoencoding [88.01906682843618]
自動回帰モデルは画像生成や音声生成などのタスクに広く使われている。
これらのモデルのサンプリングプロセスは割り込みを許さず、リアルタイムの計算資源に適応できない。
いつでもサンプリングできる新しい自動回帰モデルファミリーを提案します。
論文 参考訳(メタデータ) (2021-02-23T05:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。