論文の概要: Embed Any NeRF: Graph Meta-Networks for Neural Tasks on Arbitrary NeRF Architectures
- arxiv url: http://arxiv.org/abs/2502.09623v1
- Date: Thu, 13 Feb 2025 18:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:09.055595
- Title: Embed Any NeRF: Graph Meta-Networks for Neural Tasks on Arbitrary NeRF Architectures
- Title(参考訳): 任意のNeRF: 任意のNeRFアーキテクチャ上のニューラルタスクのためのグラフメタネットワーク
- Authors: Francesco Ballerini, Pierluigi Zama Ramirez, Samuele Salti, Luigi Di Stefano,
- Abstract要約: 複数のアーキテクチャでNeRFを取り込み、トレーニング時に見つからないアーキテクチャを推論できる最初のフレームワークを提案する。
我々は、表現学習フレームワークにおけるグラフメタネットワークの対比により、この目標を達成する。
- 参考スコア(独自算出の注目度): 18.308429148476108
- License:
- Abstract: Neural Radiance Fields (NeRFs) have emerged as a groundbreaking paradigm for representing 3D objects and scenes by encoding shape and appearance information into the weights of a neural network. Recent works have shown how such weights can be used as input to frameworks processing them to solve deep learning tasks. Yet, these frameworks can only process NeRFs with a specific, predefined architecture. In this paper, we present the first framework that can ingest NeRFs with multiple architectures and perform inference on architectures unseen at training time. We achieve this goal by training a Graph Meta-Network in a representation learning framework. Moreover, we show how a contrastive objective is conducive to obtaining an architecture-agnostic latent space. In experiments on both MLP-based and tri-planar NeRFs, our approach demonstrates robust performance in classification and retrieval tasks that either matches or exceeds that of existing frameworks constrained to single architectures, thus providing the first architecture-agnostic method to perform tasks on NeRFs by processing their weights.
- Abstract(参考訳): ニューラルネットワークの重みに形状や外観情報をエンコードすることで、3Dオブジェクトやシーンを表現するための基盤となるパラダイムとして、NeRF(Neural Radiance Fields)が登場した。
近年の研究では、このような重み付けが、ディープラーニングタスクを解決するためのフレームワーク処理のインプットとしてどのように使用できるかが示されている。
しかし、これらのフレームワークは特定の事前定義されたアーキテクチャでNeRFしか処理できない。
本稿では,複数のアーキテクチャでNeRFを取り込み,トレーニング時に見つからないアーキテクチャの推論を行う,最初のフレームワークを提案する。
グラフメタネットワークを表現学習フレームワークでトレーニングすることで、この目標を達成する。
さらに、アーキテクチャに依存しない潜在空間を得るために、対照的な目的がいかに導出されているかを示す。
MLPと3平面NeRFの両方の実験において,本手法は,単一アーキテクチャに制約された既存のフレームワークと一致するか,あるいは超えるような分類および検索タスクにおける堅牢な性能を示し,その重みを処理してNeRF上でのタスクを実行するアーキテクチャに依存しない手法を提供する。
関連論文リスト
- Multi-conditioned Graph Diffusion for Neural Architecture Search [8.290336491323796]
本稿では、離散的な条件付きグラフ拡散プロセスを用いて、高性能ニューラルネットワークアーキテクチャを生成するグラフ拡散に基づくNAS手法を提案する。
6つの標準ベンチマークで有望な結果を示し、新しいアーキテクチャとユニークなアーキテクチャを高速に実現します。
論文 参考訳(メタデータ) (2024-03-09T21:45:31Z) - Equivariant Architectures for Learning in Deep Weight Spaces [54.61765488960555]
重み空間の学習のための新しいネットワークアーキテクチャを提案する。
入力として、事前訓練された不変量の重みとバイアスの連結をとる。
これらのレイヤを3つの基本的な操作で実装する方法を示す。
論文 参考訳(メタデータ) (2023-01-30T10:50:33Z) - GENNAPE: Towards Generalized Neural Architecture Performance Estimators [25.877126553261434]
GENNAPEは、与えられたニューラルネットワークを、原子操作の計算グラフ(CG)として表現する。
最初に、トポロジ的特徴によるネットワーク分離を促進するために、Contrastive Learningを介してグラフエンコーダを学習する。
実験により、NAS-Bench-101で事前訓練されたGENNAPEは、5つの異なる公開ニューラルネットワークベンチマークに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2022-11-30T18:27:41Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Learning Versatile Neural Architectures by Propagating Network Codes [74.2450894473073]
アーキテクチャの性能を複数のデータセットやタスクで予測できる新しい「神経予測器」を提案する。
ncpはネットワークコードから学習するが、オリジナルデータではないため、データセット間で効率的にアーキテクチャを更新することができる。
論文 参考訳(メタデータ) (2021-03-24T15:20:38Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - SkeletonNet: A Topology-Preserving Solution for Learning Mesh
Reconstruction of Object Surfaces from RGB Images [85.66560542483286]
本稿では,RGB画像から3次元物体表面再構成を学習する上での課題に焦点を当てる。
我々は,SkeGCNNとSkeDISNの2つのモデルを提案する。
提案するSkeletonNetの有効性を検証するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2020-08-13T07:59:25Z) - Interpretable Neural Architecture Search via Bayesian Optimisation with
Weisfeiler-Lehman Kernels [17.945881805452288]
現在のニューラルアーキテクチャサーチ(NAS)戦略は、単一の優れたアーキテクチャを見つけることに集中している。
そこで我々は,Weisfeiler-Lehmanグラフカーネルとガウス過程サロゲートを組み合わせたNASに対するベイズ最適化手法を提案する。
提案手法は,有用なネットワーク特徴とそれに伴うネットワーク性能への影響を発見することによって,解釈可能性を実現する。
論文 参考訳(メタデータ) (2020-06-13T04:10:34Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。