論文の概要: Deep Learning on Implicit Neural Representations of Shapes
- arxiv url: http://arxiv.org/abs/2302.05438v1
- Date: Fri, 10 Feb 2023 18:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 14:57:54.882235
- Title: Deep Learning on Implicit Neural Representations of Shapes
- Title(参考訳): 形状の暗黙的神経表現に関する深層学習
- Authors: Luca De Luigi, Adriano Cardace, Riccardo Spezialetti, Pierluigi Zama
Ramirez, Samuele Salti, Luigi Di Stefano
- Abstract要約: Inlicit Neural Representations (INR) は、様々な信号を継続的にエンコードする強力なツールとして登場した。
本稿では,入力INRに対して,単一の推論パスでコンパクトな潜在表現を計算可能なフレームワークであるinr2vecを提案する。
Inr2vecは入力INRによって表現される3次元形状を効果的に埋め込み、どのようにして生成された埋め込みをディープラーニングパイプラインに供給できるかを示す。
- 参考スコア(独自算出の注目度): 14.596732196310978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Neural Representations (INRs) have emerged in the last few years as
a powerful tool to encode continuously a variety of different signals like
images, videos, audio and 3D shapes. When applied to 3D shapes, INRs allow to
overcome the fragmentation and shortcomings of the popular discrete
representations used so far. Yet, considering that INRs consist in neural
networks, it is not clear whether and how it may be possible to feed them into
deep learning pipelines aimed at solving a downstream task. In this paper, we
put forward this research problem and propose inr2vec, a framework that can
compute a compact latent representation for an input INR in a single inference
pass. We verify that inr2vec can embed effectively the 3D shapes represented by
the input INRs and show how the produced embeddings can be fed into deep
learning pipelines to solve several tasks by processing exclusively INRs.
- Abstract(参考訳): Inlicit Neural Representations(INR)は、画像、ビデオ、オーディオ、三次元形状など、さまざまな信号を継続的にエンコードする強力なツールとして、ここ数年で登場した。
3次元形状に適用すると、INRはこれまでに使われている一般的な離散表現の断片化と欠点を克服することができる。
しかし、インサーがニューラルネットワークで構成されていることを考慮すると、下流のタスクを解決することを目的としたディープラーニングパイプラインにそれらを供給することができるかどうかと方法が明確ではない。
本稿では,入力INRに対して単一の推論パスでコンパクトな潜在表現を計算可能なフレームワークであるinr2vecを提案する。
Inr2vecは入力INRで表される3次元形状を効果的に埋め込み、生成した埋め込みをディープラーニングパイプラインに供給して、INRのみを処理して複数のタスクを解く方法を示す。
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Deep Learning on Object-centric 3D Neural Fields [19.781070751341154]
単一推論パスにおいて入力NFに対してコンパクトな潜在表現を生成可能なフレームワークであるnf2vecを導入する。
nf2vecは入力されたNFで表される3Dオブジェクトを効果的に埋め込み、その結果の埋め込みがディープラーニングパイプラインにどのように使われるかを示す。
論文 参考訳(メタデータ) (2023-12-20T18:56:45Z) - Registering Neural Radiance Fields as 3D Density Images [55.64859832225061]
我々は,様々な場面でトレーニングやテストが可能な,普遍的な事前学習型ニューラルネットワークを提案する。
我々は,グローバルアプローチとして,NeRFモデルを効果的に登録できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T09:08:46Z) - Revisiting Implicit Neural Representations in Low-Level Vision [20.3578908524788]
近年,コンピュータビジョンにおいてインプシットニューラル表現(INR)が出現している。
我々は、画像復元などの低レベル視力問題において、その有効性に興味を持っている。
本研究では,INRを再検討し,低レベル画像復元タスクへの応用について検討する。
論文 参考訳(メタデータ) (2023-04-20T12:19:27Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Sobolev Training for Implicit Neural Representations with Approximated
Image Derivatives [12.71676484494428]
ニューラルネットワークによってパラメータ化されたインプシットニューラルネットワーク表現(INR)は、さまざまな種類の信号を表現するための強力なツールとして登場した。
ニューラルネットワークにおける画像値に加えて、画像の微分を符号化するために、ターゲット出力が画像画素であるINRのトレーニングパラダイムを提案する。
トレーニングパラダイムをどのように活用して、典型的なINR(画像回帰と逆レンダリング)の問題を解決するかを示す。
論文 参考訳(メタデータ) (2022-07-21T10:12:41Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。