論文の概要: Pruning AMR: Efficient Visualization of Implicit Neural Representations via Weight Matrix Analysis
- arxiv url: http://arxiv.org/abs/2512.02967v1
- Date: Tue, 02 Dec 2025 17:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.986663
- Title: Pruning AMR: Efficient Visualization of Implicit Neural Representations via Weight Matrix Analysis
- Title(参考訳): プルーニングAMR:重み行列解析による意図しない神経表現の効率的な可視化
- Authors: Jennifer Zvonek, Andrew Gillette,
- Abstract要約: 暗黙の神経表現 (INR) は、関数を近似するニューラルネットワークである。
InRによる幾何学的特徴に適応した解像度のメッシュを構築するアルゴリズムであるPruningAMRを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: An implicit neural representation (INR) is a neural network that approximates a spatiotemporal function. Many memory-intensive visualization tasks, including modern 4D CT scanning methods, represent data natively as INRs. While INRs are prized for being more memory-efficient than traditional data stored on a lattice, many visualization tasks still require discretization to a regular grid. We present PruningAMR, an algorithm that builds a mesh with resolution adapted to geometric features encoded by the INR. To identify these geometric features, we use an interpolative decomposition pruning method on the weight matrices of the INR. The resulting pruned network is used to guide adaptive mesh refinement, enabling automatic mesh generation tailored to the underlying resolution of the function. Starting from a pre-trained INR--without access to its training data--we produce a variable resolution visualization with substantial memory savings.
- Abstract(参考訳): 暗黙の神経表現 (INR) は時空間関数を近似したニューラルネットワークである。
現代の4D CTスキャン方法を含む多くのメモリ集約型可視化タスクは、データをINRとしてネイティブに表現する。
INRは格子上に格納された従来のデータよりもメモリ効率が高いと評価されているが、多くの可視化タスクは依然として正規のグリッドに離散化を必要とする。
InRで符号化された幾何学的特徴に適応した解像度でメッシュを構築するアルゴリズムであるPruningAMRを提案する。
これらの幾何学的特徴を同定するために、INRの重み行列上で補間分解プルーニング法を用いる。
得られたプルーンドネットワークは適応メッシュリファインメントを誘導するために使用され、ファンクションの根底にある解像度に合わせて自動メッシュ生成を可能にする。
トレーニングデータにアクセスせずに、事前トレーニングされたINRから始める。
関連論文リスト
- Sampling Theory for Super-Resolution with Implicit Neural Representations [0.3222802562733786]
Inlicit Neural representations (INRs) は、コンピュータおよび計算画像における逆問題を解決する強力なツールとして登場した。
本稿では, 隠れ層INRとReLUと隠されたフーリエ層とを重み減衰正規化の形式を用いて適合させる方法を示す。
低幅単層INRにより実現された画像の正確な回復率を実証的に評価する。
論文 参考訳(メタデータ) (2025-06-11T17:18:20Z) - Meta-INR: Efficient Encoding of Volumetric Data via Meta-Learning Implicit Neural Representation [4.782024723712711]
Inlicit Neural representation (INR)は、ボリュームデータを符号化するための有望なソリューションとして登場した。
メタ学習アルゴリズムを用いて,データセットの部分的な観察から初期INRパラメータを学習するための事前学習戦略であるMeta-INRを提案する。
我々は,Meta-INRが,様々なデータセットにまたがる類似ボリュームデータをエンコードする上で有効な,高品質な一般化可能な特徴を効果的に抽出できることを実証した。
論文 参考訳(メタデータ) (2025-02-12T21:54:22Z) - Towards a Sampling Theory for Implicit Neural Representations [0.3222802562733786]
Inlicit Neural representations (INRs) は、コンピュータおよび計算画像における逆問題を解決する強力なツールとして登場した。
一般化された重み減衰正規化方式を用いて, 隠蔽層INRから画像の復元方法を示す。
低幅単層INRにより実現された正確な回復画像を得る確率を実証的に評価し、より現実的な連続領域ファントム画像の超解像回復におけるINRの性能を示す。
論文 参考訳(メタデータ) (2024-05-28T17:53:47Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Transformers as Meta-Learners for Implicit Neural Representations [10.673855995948736]
Inlicit Neural Representations (INRs) は近年、離散表現よりもその利点を示してきた。
InRのハイパーネットとしてTransformerを利用する定式化を提案し,INRの重みの集合を直接構築する。
本稿では,3次元オブジェクトに対する2次元画像回帰とビュー合成を含む,異なるタスクや領域でINRを構築するための手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-08-04T17:54:38Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。