論文の概要: HyperDiffusion: Generating Implicit Neural Fields with Weight-Space
Diffusion
- arxiv url: http://arxiv.org/abs/2303.17015v1
- Date: Wed, 29 Mar 2023 20:44:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 15:01:03.331624
- Title: HyperDiffusion: Generating Implicit Neural Fields with Weight-Space
Diffusion
- Title(参考訳): hyperdiffusion: 重み空間拡散を伴う暗黙的神経場の生成
- Authors: Ziya Erko\c{c}, Fangchang Ma, Qi Shan, Matthias Nie{\ss}ner, Angela
Dai
- Abstract要約: 暗黙の神経場は、高忠実でコンパクトな表現として約束を示している。
ハイパー拡散(HyperDiffusion)は、暗黙のニューラルネットワークの無条件生成モデルのための新しいアプローチである。
- 参考スコア(独自算出の注目度): 23.98783284083211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural fields, typically encoded by a multilayer perceptron (MLP)
that maps from coordinates (e.g., xyz) to signals (e.g., signed distances),
have shown remarkable promise as a high-fidelity and compact representation.
However, the lack of a regular and explicit grid structure also makes it
challenging to apply generative modeling directly on implicit neural fields in
order to synthesize new data. To this end, we propose HyperDiffusion, a novel
approach for unconditional generative modeling of implicit neural fields.
HyperDiffusion operates directly on MLP weights and generates new neural
implicit fields encoded by synthesized MLP parameters. Specifically, a
collection of MLPs is first optimized to faithfully represent individual data
samples. Subsequently, a diffusion process is trained in this MLP weight space
to model the underlying distribution of neural implicit fields. HyperDiffusion
enables diffusion modeling over a implicit, compact, and yet high-fidelity
representation of complex signals across 3D shapes and 4D mesh animations
within one single unified framework.
- Abstract(参考訳): 通常多層パーセプトロン(mlp)によってコードされる暗黙的神経場は、座標(例えばxyz)から信号(例えば符号付き距離)にマッピングされる。
しかし、規則的かつ明示的なグリッド構造が欠如しているため、新しいデータを合成するために暗黙の神経場に直接生成モデリングを適用することが困難になる。
そこで本研究では,暗黙的神経野の無条件生成モデリングのための新しいアプローチであるhyperdiffusionを提案する。
HyperDiffusion は MLP の重みを直接操作し、合成 MLP パラメータで符号化された新しい暗黙の場を生成する。
具体的には、MLPのコレクションは、まず個々のデータサンプルを忠実に表現するように最適化される。
その後、このMLP重み空間において拡散過程を訓練し、神経暗黙界の基底分布をモデル化する。
HyperDiffusionは、単一の統一フレームワーク内で3次元形状と4次元メッシュアニメーションをまたいだ複雑な信号の暗黙的かつコンパクトで高忠実な表現を拡散モデリングできる。
関連論文リスト
- Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Bellman Diffusion: Generative Modeling as Learning a Linear Operator in the Distribution Space [72.52365911990935]
本稿では,MDPの線形性を維持する新しいDGMフレームワークであるBellman Diffusionを紹介する。
この結果から,ベルマン拡散は分布RLタスクにおける従来のヒストグラムベースベースラインよりも1.5倍高速に収束し,精度の高い画像生成装置であることがわかった。
論文 参考訳(メタデータ) (2024-10-02T17:53:23Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - DreamHOI: Subject-Driven Generation of 3D Human-Object Interactions with Diffusion Priors [4.697267141773321]
人-物体相互作用(HOI)のゼロショット合成法であるDreamHOIを提案する。
我々は、何十億もの画像キャプチャーペアで訓練されたテキストと画像の拡散モデルを利用して、リアルなHOIを生成する。
提案手法は広範囲な実験を通じて検証し,現実的なHOIを生成する上での有効性を実証する。
論文 参考訳(メタデータ) (2024-09-12T17:59:49Z) - Derivative-Free Guidance in Continuous and Discrete Diffusion Models with Soft Value-Based Decoding [84.3224556294803]
拡散モデルは、画像、分子、DNA、RNA、タンパク質配列の自然なデザイン空間を捉えるのに優れている。
これらの設計空間の自然性を保ちながら、下流の報酬関数を最適化することを目指している。
提案アルゴリズムは,中間雑音状態が将来高い報酬をもたらすことの先駆けとして,ソフトバリュー関数を統合する。
論文 参考訳(メタデータ) (2024-08-15T16:47:59Z) - BindGPT: A Scalable Framework for 3D Molecular Design via Language Modeling and Reinforcement Learning [11.862370962277938]
本稿では,タンパク質結合部位内で3D分子を生成するために,概念的にシンプルだが強力なアプローチを用いた新規な生成モデルBindGPTを提案する。
このような単純な概念的アプローチと事前学習とスケーリングが組み合わさって、現在の最高の特殊拡散モデルよりも同等以上の性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-06-06T02:10:50Z) - PolyDiff: Generating 3D Polygonal Meshes with Diffusion Models [15.846449180313778]
PolyDiffは、現実的で多様な3Dポリゴンメッシュを直接生成できる最初の拡散ベースのアプローチである。
我々のモデルは、下流3Dに統合可能な高品質な3D多角形メッシュを生成することができる。
論文 参考訳(メタデータ) (2023-12-18T18:19:26Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z) - Diffusion with Forward Models: Solving Stochastic Inverse Problems
Without Direct Supervision [76.32860119056964]
本稿では,直接観測されない信号の分布からサンプルを学習する拡散確率モデルを提案する。
コンピュータビジョンの課題3つの課題に対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2023-06-20T17:53:00Z) - Online Neural Path Guiding with Normalized Anisotropic Spherical
Gaussians [20.68953631807367]
1つの小さなニューラルネットワークを用いて空間変動密度モデルを学習するための新しいオンラインフレームワークを提案する。
我々のフレームワークは、段階的に分布を学習し、ウォームアップフェーズは不要である。
論文 参考訳(メタデータ) (2023-03-11T05:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。