論文の概要: Continuous Dynamic-NeRF: Spline-NeRF
- arxiv url: http://arxiv.org/abs/2203.13800v1
- Date: Fri, 25 Mar 2022 17:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 14:05:52.520989
- Title: Continuous Dynamic-NeRF: Spline-NeRF
- Title(参考訳): 連続動的NeRF:スプライン-NeRF
- Authors: Julian Knodt
- Abstract要約: 古典的ベジエスプラインに基づく関数再構成のための新しいアーキテクチャを提案する。
我々はニューラルラジアンス場を用いて動的シーンを再構成する。
すべてのコードはhttps://github.com/JulianKnodt/nerf_atlasで入手できる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of reconstructing continuous functions over time is important for
problems such as reconstructing moving scenes, and interpolating between time
steps. Previous approaches that use deep-learning rely on regularization to
ensure that reconstructions are approximately continuous, which works well on
short sequences. As sequence length grows, though, it becomes more difficult to
regularize, and it becomes less feasible to learn only through regularization.
We propose a new architecture for function reconstruction based on classical
Bezier splines, which ensures $C^0$ and $C^1$-continuity, where $C^0$
continuity is that $\forall c:\lim\limits_{x\to c} f(x)
= f(c)$, or more intuitively that there are no breaks at any point in the
function. In order to demonstrate our architecture, we reconstruct dynamic
scenes using Neural Radiance Fields, but hope it is clear that our approach is
general and can be applied to a variety of problems. We recover a Bezier spline
$B(\beta, t\in[0,1])$, parametrized by the control points $\beta$. Using Bezier
splines ensures reconstructions have $C^0$ and $C^1$ continuity, allowing for
guaranteed interpolation over time. We reconstruct $\beta$ with a multi-layer
perceptron (MLP), blending machine learning with classical animation
techniques. All code is available at https://github.com/JulianKnodt/nerf_atlas,
and datasets are from prior work.
- Abstract(参考訳): 移動シーンの再構築や時間ステップ間の補間といった問題において,時間とともに連続関数を再構築する問題は重要である。
ディープラーニングを使用する以前のアプローチは、レコンストラクションがほぼ連続であることを保証するために正規化に依存している。
しかし、配列長が大きくなると、正規化が難しくなり、正規化によってのみ学習することが難しくなる。
古典的なベジアースプラインに基づく関数再構成のための新しいアーキテクチャを提案する。これは$c^0$と$c^1$-連続性を保証するもので、ここで$c^0$連続性は$\forall c:\lim\limits_{x\to c} f(x) = f(c)$である。
アーキテクチャを実証するために,ニューラルラジアンス場を用いて動的シーンを再構成するが,我々のアプローチが一般的であり,様々な問題に適用できることが期待できる。
制御点$\beta$でパラメータ化されたBezier Spline $B(\beta, t\in[0,1])$を回復する。
Bezier Splinesを使用することで、再構成が$C^0$と$C^1$連続であることを保証する。
多層パーセプトロン(MLP)で$\beta$を再構成し、機械学習と古典的なアニメーション技術を組み合わせた。
すべてのコードはhttps://github.com/JulianKnodt/nerf_atlasで入手できる。
関連論文リスト
- Profile Reconstruction from Private Sketches [13.929335175122265]
$mathcalD$から$n$のアイテムの多重集合が与えられたとき、強調される再構成問題は、$t = 0, 1, dots, n$ に対して、$mathcalD$ のアイテムの分数 $vecf[t]$ を正確に $tfty 倍と見積もることである。
分散空間制約付き環境での個人プロファイル推定について検討し,マルチセットの更新可能なプライベートスケッチを維持したいと考える。
LPベースの手法の高速化方法を示します
論文 参考訳(メタデータ) (2024-06-03T09:51:28Z) - Transformer In-Context Learning for Categorical Data [51.23121284812406]
我々は、分類結果、非線形基礎モデル、非線形注意を考慮し、文脈内学習のレンズを通してトランスフォーマーを理解する研究を機能データで拡張する。
我々は、ImageNetデータセットを用いて、この数発の学習方法論の最初の実世界の実演であると考えられるものを提示する。
論文 参考訳(メタデータ) (2024-05-27T15:03:21Z) - Adaptive approximation of monotone functions [0.0]
GreedyBox が任意の関数 $f$ に対して,対数因子まで,最適なサンプル複雑性を実現することを証明した。
おそらく予想通り、GreedyBoxの$Lp(mu)$エラーは、アルゴリズムによって予測されるよりもはるかに高速な$C2$関数で減少する。
論文 参考訳(メタデータ) (2023-09-14T08:56:31Z) - Near-continuous time Reinforcement Learning for continuous state-action
spaces [3.5527561584422456]
本研究では,未知の力学系を制御することによる強化学習の問題点を考察し,一つの軌道に沿った長期平均報酬を最大化する。
文献の多くは、離散時間と離散状態-作用空間で発生するシステム相互作用を考察している。
本稿では,サブタスク(学習と計画)を効果的に行うことができれば,有望なオプティミズムプロトコルが適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-06T08:01:17Z) - Beyond Uniform Smoothness: A Stopped Analysis of Adaptive SGD [38.221784575853796]
この研究は、勾配を用いて潜在的に一定の滑らかさを持つ非アトー関数の1次定常点を求める問題を考える。
我々は、ノイズに一様境界を仮定することなく$mathcalO(fracmathrmpolylog(T)sigmatT)$収束率を証明できる技術を開発した。
論文 参考訳(メタデータ) (2023-02-13T18:13:36Z) - Improved Dynamic Regret for Online Frank-Wolfe [54.690867216880356]
オンライン凸最適化のための効率的なプロジェクションフリーアルゴリズムであるFrank-Wolfe (OFW) の動的後悔について検討する。
本稿では,FWの高速収束率をオフライン最適化からオンライン最適化に拡張することにより,OFWの動的後悔境界の改善を導出する。
論文 参考訳(メタデータ) (2023-02-11T07:19:51Z) - On Submodular Contextual Bandits [92.45432756301231]
作用が基底集合の部分集合であり、平均報酬が未知の単調部分モジュラ函数によってモデル化されるような文脈的包帯の問題を考える。
Inverse Gap Weighting 戦略により,提案アルゴリズムは推定関数の局所的最適度を効率よくランダム化することを示す。
論文 参考訳(メタデータ) (2021-12-03T21:42:33Z) - Learning Stochastic Shortest Path with Linear Function Approximation [74.08819218747341]
線形関数近似を用いた強化学習における最短経路 (SSP) 問題について検討し, 遷移カーネルを未知モデルの線形混合として表現する。
本稿では,線形混合SSPを学習するための新しいアルゴリズムを提案し,このアルゴリズムにより,$tilde O(d B_star1.5sqrtK/c_min)$ regretを実現する。
論文 参考訳(メタデータ) (2021-10-25T08:34:00Z) - Submodular + Concave [53.208470310734825]
第一次最適化法が凹関数の最大目的値に収束できることはよく確立されている。
本研究では、滑らかな函数凸体(英語版)の行列式を$F(x) = G(x) +C(x)$で始める。
このクラスの函数は、保証がないような凹凸函数と連続DR-部分モジュラ函数の両方の拡張である。
論文 参考訳(メタデータ) (2021-06-09T01:59:55Z) - Neural Network Approximation: Three Hidden Layers Are Enough [4.468952886990851]
超近似パワーを有する3層ニューラルネットワークを導入する。
ネットワークはフロア関数(lfloor xrfloor$)、指数関数(2x$)、ステップ関数(1_xgeq 0$)、または各ニューロンの活性化関数としてのそれらの構成で構築される。
論文 参考訳(メタデータ) (2020-10-25T18:30:57Z) - Safe Learning under Uncertain Objectives and Constraints [66.05180398174286]
我々は、テキスト不明で安全クリティカルな制約の下で、非テクスト無知かつ安全クリティカルな最適化問題を考察する。
このような問題は、ロボティクス、製造、医療などの様々な領域で自然に発生する。
我々の分析の重要な要素は、安全な最適化の文脈で収縮と呼ばれる手法を導入し、適用することである。
論文 参考訳(メタデータ) (2020-06-23T20:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。