論文の概要: Refine Now, Query Fast: A Decoupled Refinement Paradigm for Implicit Neural Fields
- arxiv url: http://arxiv.org/abs/2602.15155v1
- Date: Mon, 16 Feb 2026 19:55:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.889966
- Title: Refine Now, Query Fast: A Decoupled Refinement Paradigm for Implicit Neural Fields
- Title(参考訳): Refine Now, Query Fast: 暗黙のニューラルネットワークのための分離されたリファインメントパラダイム
- Authors: Tianyu Xiong, Skylar Wurster, Han-Wei Shen,
- Abstract要約: Inlicit Neural Representations (INR)は、大規模な3D科学シミュレーションのための有望なサロゲートとして登場した。
本稿では、より広範な応用において、強力で実用的なニューラルネットワークサロゲートとrevINRを構築するためのパラダイムを提案する。
- 参考スコア(独自算出の注目度): 31.861702750709256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Neural Representations (INRs) have emerged as promising surrogates for large 3D scientific simulations due to their ability to continuously model spatial and conditional fields, yet they face a critical fidelity-speed dilemma: deep MLPs suffer from high inference cost, while efficient embedding-based models lack sufficient expressiveness. To resolve this, we propose the Decoupled Representation Refinement (DRR) architectural paradigm. DRR leverages a deep refiner network, alongside non-parametric transformations, in a one-time offline process to encode rich representations into a compact and efficient embedding structure. This approach decouples slow neural networks with high representational capacity from the fast inference path. We introduce DRR-Net, a simple network that validates this paradigm, and a novel data augmentation strategy, Variational Pairs (VP) for improving INRs under complex tasks like high-dimensional surrogate modeling. Experiments on several ensemble simulation datasets demonstrate that our approach achieves state-of-the-art fidelity, while being up to 27$\times$ faster at inference than high-fidelity baselines and remaining competitive with the fastest models. The DRR paradigm offers an effective strategy for building powerful and practical neural field surrogates and \rev{INRs in broader applications}, with a minimal compromise between speed and quality.
- Abstract(参考訳): Inlicit Neural Representations (INRs) は空間場と条件場を連続的にモデル化する能力から、大規模な3次元科学シミュレーションのための有望なサロゲートとして現れてきたが、深部MLPは高い推論コストに悩まされ、効率的な埋め込みベースモデルは十分な表現力に欠ける。
そこで本研究では,DDR(Decoupled Representation Refinement)アーキテクチャパラダイムを提案する。
DRRは、非パラメトリック変換とともに、リッチ表現をコンパクトで効率的な埋め込み構造にエンコードするために、1回のオフラインプロセスでディープ・リファラーネットワークを利用する。
このアプローチは、高速な推論パスから高い表現能力を持つ遅いニューラルネットワークを分離する。
本稿では,このパラダイムを検証するシンプルなネットワークであるDRR-Netと,高次元サロゲートモデリングのような複雑なタスク下でINRを改善するための新たなデータ拡張戦略であるVPを紹介する。
いくつかのアンサンブルシミュレーションデータセットの実験により、我々の手法は最先端の忠実さを達成する一方で、高速なモデルとの競争を保ちながら、高忠実度ベースラインよりも推論で最大27$\times$の高速さを実現していることが示された。
DRRパラダイムは、より広範なアプリケーションにおいて、強力で実用的なニューラルネットワークサロゲートと \rev{INRs を構築するための効果的な戦略を提供する。
関連論文リスト
- Scaling Implicit Fields via Hypernetwork-Driven Multiscale Coordinate Transformations [0.0]
Inlicit Neural Representations (INR)は、画像、3次元形状、符号付き距離場、放射場などの信号を表現するための強力なパラダイムとして登場した。
この研究は、ハイパーネットワークを用いて信号適応座標変換を学習することにより、表現ボトルネックを破る新しいINRのクラスであるHyper-Coordinate Implicit Neural Representations (HC-INR)を導入している。
論文 参考訳(メタデータ) (2025-11-23T10:27:04Z) - Dynamic Generation of Multi-LLM Agents Communication Topologies with Graph Diffusion Models [99.85131798240808]
我々はtextitGuided Topology Diffusion (GTD) と呼ばれる新しい生成フレームワークを導入する。
条件付き離散グラフ拡散モデルにインスパイアされたGTD式は、反復的な構成過程としてトポロジー合成を行う。
各ステップで生成は、多目的報酬を予測する軽量プロキシモデルによって制御される。
実験により、GTDは高いタスク適応性、スパース、効率的な通信トポロジを生成できることが示されている。
論文 参考訳(メタデータ) (2025-10-09T05:28:28Z) - High-Fidelity Scientific Simulation Surrogates via Adaptive Implicit Neural Representations [51.90920900332569]
入射神経表現(INR)は空間的に構造化されたデータをモデリングするためのコンパクトで連続的なフレームワークを提供する。
近年のアプローチでは、剛性幾何学的構造に沿った付加的な特徴を導入することでこの問題に対処している。
機能適応型INR(FA-INR)を提案する。
論文 参考訳(メタデータ) (2025-06-07T16:45:17Z) - Time Marching Neural Operator FE Coupling: AI Accelerated Physics Modeling [3.0635300721402228]
本研究は、物理インフォームド・ディープ・オペレーター・ネットワークをドメイン分解によりFEMと統合する新しいハイブリッド・フレームワークを導入する。
動的システムの課題に対処するため、DeepONetに直接タイムステッピングスキームを組み込み、長期エラーの伝搬を大幅に低減する。
提案手法は, 従来手法に比べて収束率を最大20%向上させるとともに, 誤差マージンが3%未満の解の忠実度を保ちながら, 収束率の高速化を図っている。
論文 参考訳(メタデータ) (2025-04-15T16:54:04Z) - Hyperdimensional Computing Empowered Federated Foundation Model over Wireless Networks for Metaverse [56.384390765357004]
本稿では,新しい基礎モデルのための統合型分割学習と超次元計算フレームワークを提案する。
この新しいアプローチは通信コスト、計算負荷、プライバシーリスクを低減し、Metaverseのリソース制約されたエッジデバイスに適している。
論文 参考訳(メタデータ) (2024-08-26T17:03:14Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - Consistency Models for Scalable and Fast Simulation-Based Inference [9.27488642055461]
シミュレーションベース推論(SBI)のための新しい条件付きサンプルであるCMPEの整合性モデルを提案する。
CMPEは基本的に連続した確率フローを蒸留し、制約のないアーキテクチャで高速な数発の推論を可能にする。
実験により,CMPEは高次元のベンチマークで最先端のアルゴリズムより優れるだけでなく,より高速なサンプリング速度で競合性能を達成できることを示した。
論文 参考訳(メタデータ) (2023-12-09T02:14:12Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。