論文の概要: HyperPlanes: Hypernetwork Approach to Rapid NeRF Adaptation
- arxiv url: http://arxiv.org/abs/2402.01524v1
- Date: Fri, 2 Feb 2024 16:10:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 14:27:44.951119
- Title: HyperPlanes: Hypernetwork Approach to Rapid NeRF Adaptation
- Title(参考訳): HyperPlanes: 高速NeRF適応に対するハイパーネットワークアプローチ
- Authors: Pawe{\l} Batorski, Dawid Malarz, Marcin Przewi\k{e}\'zlikowski, Marcin
Mazur, S{\l}awomir Tadeja, Przemys{\l}aw Spurek
- Abstract要約: 本稿では,推論中に勾配最適化を必要としないハイパーネットワークのパラダイムに基づく数ショットの学習手法を提案する。
我々は,少数の画像から高品質な3Dオブジェクト表現を単一ステップで生成する効率的な方法を開発した。
- 参考スコア(独自算出の注目度): 4.53411151619456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural radiance fields (NeRFs) are a widely accepted standard for
synthesizing new 3D object views from a small number of base images. However,
NeRFs have limited generalization properties, which means that we need to use
significant computational resources to train individual architectures for each
item we want to represent. To address this issue, we propose a few-shot
learning approach based on the hypernetwork paradigm that does not require
gradient optimization during inference. The hypernetwork gathers information
from the training data and generates an update for universal weights. As a
result, we have developed an efficient method for generating a high-quality 3D
object representation from a small number of images in a single step. This has
been confirmed by direct comparison with the state-of-the-art solutions and a
comprehensive ablation study.
- Abstract(参考訳): ニューラル放射場(NeRF)は、少数のベース画像から新しい3Dオブジェクトビューを合成するための広く受け入れられている標準である。
しかし、NeRFは限定的な一般化特性を持つため、表現したい項目ごとに個々のアーキテクチャをトレーニングするために、重要な計算資源を使う必要がある。
この問題に対処するために,推論中に勾配最適化を必要としないハイパーネットワークパラダイムに基づく数ショットの学習手法を提案する。
ハイパーネットワークはトレーニングデータから情報を収集し、普遍重みの更新を生成する。
その結果,少数の画像から1ステップで高品質な3dオブジェクト表現を生成する効率的な手法を開発した。
これは最先端の解と包括的アブレーション研究とを直接比較して確認されている。
関連論文リスト
- Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - MuRF: Multi-Baseline Radiance Fields [117.55811938988256]
スパースビュー合成におけるフィードフォワードアプローチであるmulti-Baseline Radiance Fields(MuRF)を提案する。
MuRFは、複数の異なるベースライン設定で最先端のパフォーマンスを達成する。
また、Mip-NeRF 360データセット上でゼロショットの一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:56Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Federated Neural Radiance Fields [36.42289161746808]
複数の計算ノードがそれぞれのシーンの異なる観察セットを取得し、共通のNeRFを並列に学習する。
このアルゴリズムは、トレーニング作業を複数の計算ノードに分割し、イメージを中央ノードにプールする必要をなくします。
また、NeRF層の低ランク分解に基づく手法を導入し、帯域幅を削減し、アグリゲーションのためのモデルパラメーターを送信する。
論文 参考訳(メタデータ) (2023-05-02T02:33:22Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - HyperNeRFGAN: Hypernetwork approach to 3D NeRF GAN [0.4606926019499777]
本稿では,ガウス雑音をNeRFアーキテクチャの重みに変換するために,ハイパーネットワークパラダイムを用いたGANアーキテクチャであるHyperNeRFGANを紹介する。
既存の最先端の代替モデルと比較して顕著な単純さにもかかわらず、提案モデルは多様な画像データセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-01-27T10:21:18Z) - PeRFception: Perception using Radiance Fields [72.99583614735545]
私たちは、PeRFceptionと呼ばれる知覚タスクのための、最初の大規模な暗黙的表現データセットを作成します。
元のデータセットからかなりのメモリ圧縮率 (96.4%) を示し、2D情報と3D情報の両方を統一形式で格納している。
この暗黙の形式を直接入力する分類とセグメンテーションモデルを構築し、画像の背景に過度に収まらないよう、新しい拡張手法を提案する。
論文 参考訳(メタデータ) (2022-08-24T13:32:46Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - pixelNeRF: Neural Radiance Fields from One or Few Images [20.607712035278315]
pixelNeRFは、1つまたは少数の入力画像に条件付された連続的なニューラルシーン表現を予測する学習フレームワークである。
本研究では,単一画像の新規ビュー合成タスクのためのShapeNetベンチマーク実験を行った。
いずれの場合も、ピクセルNeRFは、新しいビュー合成とシングルイメージ3D再構成のための最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-12-03T18:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。