論文の概要: Memorization in 3D Shape Generation: An Empirical Study
- arxiv url: http://arxiv.org/abs/2512.23628v1
- Date: Mon, 29 Dec 2025 17:39:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.599173
- Title: Memorization in 3D Shape Generation: An Empirical Study
- Title(参考訳): 3次元形状生成における記憶 : 実証的研究
- Authors: Shu Pu, Boya Zeng, Kaichen Zhou, Mengyu Wang, Zhuang Liu,
- Abstract要約: 生成モデルは、新しい形状を合成するために3次元視覚においてますます使われている。
彼らの世代がトレーニングフォームの記憶に依存しているかどうかは不明だ。
我々のフレームワークと分析は、3次元生成モデルにおける記憶の実証的な理解を提供する。
- 参考スコア(独自算出の注目度): 12.509533403036798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models are increasingly used in 3D vision to synthesize novel shapes, yet it remains unclear whether their generation relies on memorizing training shapes. Understanding their memorization could help prevent training data leakage and improve the diversity of generated results. In this paper, we design an evaluation framework to quantify memorization in 3D generative models and study the influence of different data and modeling designs on memorization. We first apply our framework to quantify memorization in existing methods. Next, through controlled experiments with a latent vector-set (Vecset) diffusion model, we find that, on the data side, memorization depends on data modality, and increases with data diversity and finer-grained conditioning; on the modeling side, it peaks at a moderate guidance scale and can be mitigated by longer Vecsets and simple rotation augmentation. Together, our framework and analysis provide an empirical understanding of memorization in 3D generative models and suggest simple yet effective strategies to reduce it without degrading generation quality. Our code is available at https://github.com/zlab-princeton/3d_mem.
- Abstract(参考訳): 生成モデルは、新しい形状を合成するために3次元視覚においてますます使われているが、それらの生成がトレーニング形状の記憶に依存しているかどうかは不明である。
暗記を理解することで、トレーニングデータの漏洩を防ぎ、生成された結果の多様性を向上させることができる。
本稿では,3次元生成モデルにおける記憶の定量化のための評価フレームワークを設計し,異なるデータやモデル設計が記憶に与える影響について検討する。
まず、既存の手法における記憶の定量化にフレームワークを適用します。
次に,遅延ベクトル集合(Vecset)拡散モデルを用いた制御実験により,データ側では暗記がデータモダリティに依存し,データの多様性や粒度の微細化によって増加し,モデリング側では適度な指導尺度でピークを極め,より長いベクセットと単純な回転拡大によって緩和できることがわかった。
筆者らのフレームワークと分析は,3次元生成モデルにおける記憶の実証的理解を提供するとともに,生成品質を劣化させることなく,それを減らすためのシンプルかつ効果的な戦略を提案する。
私たちのコードはhttps://github.com/zlab-princeton/3d_mem.comで利用可能です。
関連論文リスト
- Beyond Frequency: The Role of Redundancy in Large Language Model Memorization [13.044826650528192]
大規模言語モデルの記憶は、これらのシステムが数十億のパラメータにスケールするにつれて、プライバシと公正性にとって重大なリスクをもたらす。
また,非記憶標本の頻度は最小限に抑えられるが,非記憶試料の頻度は著しく増大することを示した。
以上の結果から,データ前処理における冗長性に配慮したアプローチの可能性を示唆し,プライバシのリスクを低減し,バイアスを軽減し,モデル展開の公正性を確保する。
論文 参考訳(メタデータ) (2025-06-14T03:02:42Z) - Redistribute Ensemble Training for Mitigating Memorization in Diffusion Models [31.92526915009259]
拡散モデルは非常に高品質なサンプルを生成する能力で知られている。
最近のメモリ緩和法は、主にテキストモダリティの文脈における問題に対処している。
本稿では,視覚的モダリティの観点からの拡散モデルの新たな手法を提案する。
論文 参考訳(メタデータ) (2025-02-13T15:56:44Z) - A Lesson in Splats: Teacher-Guided Diffusion for 3D Gaussian Splats Generation with 2D Supervision [65.33043028101471]
本稿では,2次元監視のみを用いた3次元画像調和拡散モデルの学習フレームワークを提案する。
既存の3D生成モデルは、大規模な3Dデータセットが不足しているため、完全に3Dの監視に依存している。
論文 参考訳(メタデータ) (2024-12-01T00:29:57Z) - A Geometric Framework for Understanding Memorization in Generative Models [11.263296715798374]
近年の研究では、深層生成モデルにより、デプロイ時にトレーニングデータポイントを記憶・再生することが可能であることが示されている。
これらの知見は、特に暗記によって引き起こされる法的およびプライバシー上のリスクを考慮して、生成モデルのユーザビリティを疑問視する。
本稿では, 多様体の暗記仮説(MMH)を, 暗記を推論する明快な言語として活用する幾何学的枠組みを提案する。
論文 参考訳(メタデータ) (2024-10-31T18:09:01Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Toward Mesh-Invariant 3D Generative Deep Learning with Geometric
Measures [2.167843405313757]
幾何学的データの取得を可能にする技術が開発されているため、3次元生成モデリングは加速している。
多くの生成学習アルゴリズムは、予測された形状と対象形状を比較する際に、各点間の対応を必要とする。
トレーニングフェーズにおいても,異なるパラメータ化に対処可能なアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-27T19:27:15Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Semi-Supervised Adversarial Recognition of Refined Window Structures for
Inverse Procedural Fa\c{c}ade Modeling [17.62526990262815]
本稿では,逆手続きモデルに組み込んだ半教師付き対角認識戦略を提案する。
既存の3Dモデリングソフトウェアの内部に、単純なプロシージャエンジンが構築され、きめ細かい窓のジオメトリが生成される。
公開されているファサード画像データセットを用いた実験により、提案したトレーニング戦略により、分類精度が約10%向上できることが判明した。
論文 参考訳(メタデータ) (2022-01-22T06:34:48Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。