論文の概要: RHINO: Regularizing the Hash-based Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2309.12642v1
- Date: Fri, 22 Sep 2023 06:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 15:54:30.536838
- Title: RHINO: Regularizing the Hash-based Implicit Neural Representation
- Title(参考訳): RHINO: ハッシュベースの命令型ニューラル表現の正規化
- Authors: Hao Zhu, Fengyi Liu, Qi Zhang, Xun Cao, Zhan Ma
- Abstract要約: Inlicit Neural Representation (INR) は、複雑な信号の特徴付けにおいて、顕著な効果と効率性を示した。
しかし、現在の最先端の手法では、規則化が不十分であり、しばしばラジダスの間に信頼できない、うるさい結果をもたらす。
本稿では, 連続解析関数を組み込んで正規化を促進するRHINOを紹介する。
特にRHINOは、現在の最先端技術を、品質とスピードの両方で上回り、その優位性を確認している。
- 参考スコア(独自算出の注目度): 34.467625248206346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Implicit Neural Representation (INR) through a hash-table has
demonstrated impressive effectiveness and efficiency in characterizing
intricate signals. However, current state-of-the-art methods exhibit
insufficient regularization, often yielding unreliable and noisy results during
interpolations. We find that this issue stems from broken gradient flow between
input coordinates and indexed hash-keys, where the chain rule attempts to model
discrete hash-keys, rather than the continuous coordinates. To tackle this
concern, we introduce RHINO, in which a continuous analytical function is
incorporated to facilitate regularization by connecting the input coordinate
and the network additionally without modifying the architecture of current
hash-based INRs. This connection ensures a seamless backpropagation of
gradients from the network's output back to the input coordinates, thereby
enhancing regularization. Our experimental results not only showcase the
broadened regularization capability across different hash-based INRs like DINER
and Instant NGP, but also across a variety of tasks such as image fitting,
representation of signed distance functions, and optimization of 5D static / 6D
dynamic neural radiance fields. Notably, RHINO outperforms current
state-of-the-art techniques in both quality and speed, affirming its
superiority.
- Abstract(参考訳): Inlicit Neural Representation (INR) のハッシュテーブルによる使用は、複雑な信号の特徴付けにおいて顕著な効果と効率性を示した。
しかし、現在の最先端の手法では正規化が不十分であり、補間中に信頼できない結果やノイズが発生することが多い。
この問題は、チェーンルールが連続座標ではなく離散ハッシュキーをモデル化しようとする、入力座標とインデックス付きハッシュキーの間の勾配流れの破れに起因することが分かる。
そこで本研究では,入力座標とネットワークを接続し,現在のハッシュベースのinrsのアーキテクチャを変更することなく正規化を容易にするために,連続解析関数が組み込まれているrhinoを紹介する。
この接続により、ネットワークの出力から入力座標への勾配のシームレスなバックプロパゲーションが保証され、正規化が向上する。
我々の実験結果は、DINERやInstant NGPのような異なるハッシュベースのINRにまたがるより広い正規化能力を示すだけでなく、画像整合、符号付き距離関数の表現、および5次元静的/6次元動的ニューラル放射場の最適化といった様々なタスクにも及んでいる。
特にRHINOは、現在の最先端技術を品質とスピードの両方で上回り、その優位性を確認している。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Synergistic Integration of Coordinate Network and Tensorial Feature for Improving Neural Radiance Fields from Sparse Inputs [26.901819636977912]
本稿では,低周波信号に対する強いバイアスで知られる座標ネットワークと多面表現を統合する手法を提案する。
提案手法は,スパース入力を持つ静的および動的NeRFのベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-13T15:42:46Z) - Uncertainty-Aware Deep Attention Recurrent Neural Network for
Heterogeneous Time Series Imputation [0.25112747242081457]
欠落は多変量時系列においてユビキタスであり、信頼できる下流分析の障害となる。
本稿では、欠落した値とその関連不確かさを共同で推定するDeep Attention Recurrent Imputation (Imputation)を提案する。
実験の結果,実世界のデータセットを用いた多様な計算タスクにおいて,SOTAを上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-04T13:21:11Z) - Tensor network renormalization: application to dynamic correlation
functions and non-hermitian systems [0.0]
本稿では,動的相関関数の計算を可能にするLoop-TNRアルゴリズムの実装について述べる。
また,非エルミート系の臨界特性を調べるためにLoop-TNRアルゴリズムが適用可能であることも強調した。
論文 参考訳(メタデータ) (2023-11-30T18:34:32Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - DINER: Disorder-Invariant Implicit Neural Representation [33.10256713209207]
入射神経表現(INR)は、信号の属性を対応する座標の関数として特徴づける。
本稿では、従来のINRバックボーンにハッシュテーブルを付加することにより、障害不変な暗黙的神経表現(DINER)を提案する。
論文 参考訳(メタデータ) (2022-11-15T03:34:24Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - STRONG: Synchronous and asynchronous RObust Network localization, under
Non-Gaussian noise [0.0]
現実世界のネットワークアプリケーションは、故障したノード、悪意のある攻撃、および外れ値として分類されたデータに対処しなければならない。
本研究はセンサネットワークローカライゼーションアルゴリズムの範囲内でこれらの懸念に対処する。
コントリビューションの大きな目玉は、証明可能な配布に対して、正確性も、通信コストも、速度も、何の費用も払わないという事実にあります。
論文 参考訳(メタデータ) (2021-10-01T18:01:28Z) - Cross-Scale Internal Graph Neural Network for Image Super-Resolution [147.77050877373674]
自然画像における非局所的な自己相似性は、画像修復に有効な先行研究として、よく研究されている。
単一の画像超解像(SISR)の場合、既存のディープ非局所法のほとんどは、低解像度(LR)入力画像と同じ規模のパッチしか利用していない。
これは、新しいクロススケールな内部グラフニューラルネットワーク(IGNN)を用いて実現される。
論文 参考訳(メタデータ) (2020-06-30T10:48:40Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。