論文の概要: TRIDENT: The Nonlinear Trilogy for Implicit Neural Representations
- arxiv url: http://arxiv.org/abs/2311.13610v1
- Date: Tue, 21 Nov 2023 21:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 14:13:49.566860
- Title: TRIDENT: The Nonlinear Trilogy for Implicit Neural Representations
- Title(参考訳): TRIDENT: 入射神経表現の非線形トリオロジー
- Authors: Zhenda Shen, Yanqi Cheng, Raymond H. Chan, Pietro Li\`o,
Carola-Bibiane Sch\"onlieb, Angelica I Aviles-Rivero
- Abstract要約: TRIDENTは、非線形性の三部作によって特徴づけられる暗黙の神経表現のための新しい関数である。
順序のコンパクト性を通じて高次特徴を表現するように設計されている。
信号や画像を表現する能力があり、そのエネルギーの大部分は限られた空間領域に集中している。
- 参考スコア(独自算出の注目度): 5.21359148333684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit neural representations (INRs) have garnered significant interest
recently for their ability to model complex, high-dimensional data without
explicit parameterisation. In this work, we introduce TRIDENT, a novel function
for implicit neural representations characterised by a trilogy of
nonlinearities. Firstly, it is designed to represent high-order features
through order compactness. Secondly, TRIDENT efficiently captures frequency
information, a feature called frequency compactness. Thirdly, it has the
capability to represent signals or images such that most of its energy is
concentrated in a limited spatial region, denoting spatial compactness. We
demonstrated through extensive experiments on various inverse problems that our
proposed function outperforms existing implicit neural representation
functions.
- Abstract(参考訳): 暗黙の神経表現(INR)は、パラメータ化を明示せずに複雑な高次元データをモデル化する能力において、近年大きな関心を集めている。
本稿では,非線形三部作を特徴とする暗黙的ニューラル表現のための新しい関数TRIDENTを紹介する。
第一に、順序コンパクト性を通じて高次特徴を表現するように設計されている。
次に、TRIDENTは周波数情報を効率的に取得する。
第3に、エネルギーのほとんどが限られた空間領域に集中し、空間的コンパクト性を示すような信号や画像を表現する能力がある。
提案する関数が既存の暗黙的神経表現関数より優れる様々な逆問題に関する広範な実験を行った。
関連論文リスト
- NeuRBF: A Neural Fields Representation with Adaptive Radial Basis
Functions [93.02515761070201]
本稿では,信号表現に一般放射状基底を用いる新しいタイプのニューラルネットワークを提案する。
提案手法は, 空間適応性が高く, ターゲット信号により密着可能な, フレキシブルなカーネル位置と形状を持つ一般ラジアルベース上に構築する。
ニューラルラジアンス場再構成に適用した場合,本手法はモデルサイズが小さく,訓練速度が同等である最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2023-09-27T06:32:05Z) - Tensorized Hypergraph Neural Networks [69.65385474777031]
我々は,新しいアジャケーシテンソルベースのtextbfTensorized textbfHypergraph textbfNeural textbfNetwork (THNN) を提案する。
THNNは高次外装機能パッシングメッセージを通じて、忠実なハイパーグラフモデリングフレームワークである。
3次元視覚オブジェクト分類のための2つの広く使われているハイパーグラフデータセットの実験結果から、モデルの有望な性能を示す。
論文 参考訳(メタデータ) (2023-06-05T03:26:06Z) - Orders-of-coupling representation with a single neural network with
optimal neuron activation functions and without nonlinear parameter
optimization [0.0]
本稿では,ニューラルネットに最適なニューロン活性化機能を持たせることで,協調表現のニューラルネットワークモデルを容易に構築できることを述べる。
例としては、分子ポテンシャルエネルギー表面の表現がある。
論文 参考訳(メタデータ) (2023-02-11T06:27:26Z) - Modality-Agnostic Variational Compression of Implicit Neural
Representations [96.35492043867104]
Inlicit Neural Representation (INR) としてパラメータ化されたデータの関数的ビューに基づくモーダリティ非依存型ニューラル圧縮アルゴリズムを提案する。
潜時符号化と疎性の間のギャップを埋めて、ソフトゲーティング機構に非直線的にマッピングされたコンパクト潜時表現を得る。
このような潜在表現のデータセットを得た後、ニューラル圧縮を用いてモーダリティ非依存空間におけるレート/歪みトレードオフを直接最適化する。
論文 参考訳(メタデータ) (2023-01-23T15:22:42Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Neural Poisson: Indicator Functions for Neural Fields [25.41908065938424]
3次元形状の符号付き距離場表現(SDF)は顕著な進展を示した。
本稿では,3次元シーンのニューラルフィールド表現のための新しいパラダイムを提案する。
提案手法は, 合成3次元シーンデータと実写3次元シーンデータの両方に対して, 最先端の再構築性能を示す。
論文 参考訳(メタデータ) (2022-11-25T17:28:22Z) - Pure Exploration in Kernel and Neural Bandits [90.23165420559664]
我々は、特徴表現の次元が腕の数よりもはるかに大きい帯域における純粋な探索について研究する。
そこで本研究では,各アームの特徴表現を低次元空間に適応的に埋め込む手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T19:51:59Z) - An Investigation of Potential Function Designs for Neural CRF [75.79555356970344]
本稿では,ニューラルCRFモデルに対する一連の表現力のあるポテンシャル関数について検討する。
実験により, 隣接する2つのラベルと隣接する2つの単語のベクトル表現に基づく分解された二次ポテンシャル関数が, 常に最高の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-11T07:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。