論文の概要: NerfBaselines: Consistent and Reproducible Evaluation of Novel View Synthesis Methods
- arxiv url: http://arxiv.org/abs/2406.17345v1
- Date: Tue, 25 Jun 2024 07:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 15:11:49.086265
- Title: NerfBaselines: Consistent and Reproducible Evaluation of Novel View Synthesis Methods
- Title(参考訳): NerfBaselines:新しいビュー合成手法の一貫性と再現性の評価
- Authors: Jonas Kulhanek, Torsten Sattler,
- Abstract要約: 本稿では,様々な手法のインストールを簡単にするNeuralBaselinesというフレームワークを提案する。
各種手法の評価プロトコルの微妙な違いが,不整合性評価指標に繋がることが示唆された。
アクセシビリティをさらに向上するために、一般的なメソッドを標準ベンチマークで比較するWebプラットフォームをリリースする。
- 参考スコア(独自算出の注目度): 26.794972449896548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis is an important problem with many applications, including AR/VR, gaming, and simulations for robotics. With the recent rapid development of Neural Radiance Fields (NeRFs) and 3D Gaussian Splatting (3DGS) methods, it is becoming difficult to keep track of the current state of the art (SoTA) due to methods using different evaluation protocols, codebases being difficult to install and use, and methods not generalizing well to novel 3D scenes. Our experiments support this claim by showing that tiny differences in evaluation protocols of various methods can lead to inconsistent reported metrics. To address these issues, we propose a framework called NerfBaselines, which simplifies the installation of various methods, provides consistent benchmarking tools, and ensures reproducibility. We validate our implementation experimentally by reproducing numbers reported in the original papers. To further improve the accessibility, we release a web platform where commonly used methods are compared on standard benchmarks. Web: https://jkulhanek.com/nerfbaselines
- Abstract(参考訳): 新しいビュー合成は、AR/VR、ゲーム、ロボット工学のシミュレーションなど、多くのアプリケーションにおいて重要な問題である。
近年のNeural Radiance Fields(NeRFs)と3D Gaussian Splatting(3DGS)メソッドの急速な発展に伴い,異なる評価プロトコルを用いた手法,コードベースのインストールと使用が困難であること,新しい3Dシーンに適さない手法などにより,現在のSoTA(State-of-the-art)の追跡が困難になっている。
本実験は, 各種手法の評価プロトコルの微妙な差異が, 不整合性指標につながることを示すことによって, この主張を支持する。
これらの問題に対処するため,さまざまなメソッドのインストールを簡略化し,一貫したベンチマークツールを提供し,再現性を確保するNerfBaselinesというフレームワークを提案する。
本研究は,本論文で報告された数値を再現することにより,本実装を実験的に検証する。
アクセシビリティをさらに向上するために、一般的なメソッドを標準ベンチマークで比較するWebプラットフォームをリリースする。
Web: https://jkulhanek.com/nerfbaselines
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Dataset and Benchmark [43.76981659253837]
異なるレンダリングは、シーンの密集した視点のカバレッジに依存します。
ほんのわずかのインプットビューが利用できる場合、多くの課題が発生する。
スパースレンダリング文学における繰り返し発生する問題は、均一で最新のデータセットと評価プロトコルがないことである。
DTU MVSデータセットのセットアップに従う新しいデータセットを導入する。
論文 参考訳(メタデータ) (2024-09-23T14:10:06Z) - TranSplat: Generalizable 3D Gaussian Splatting from Sparse Multi-View Images with Transformers [14.708092244093665]
我々は,正確な局所特徴マッチングを導くために,予測深度信頼マップを利用する戦略を開発する。
本稿では,RealEstate10KベンチマークとACIDベンチマークの両方で最高の性能を示すTranSplatという新しいG-3DGS手法を提案する。
論文 参考訳(メタデータ) (2024-08-25T08:37:57Z) - DOCE: Finding the Sweet Spot for Execution-Based Code Generation [69.5305729627198]
本稿では,候補生成,$n$-best再ランク,最小ベイズリスク(MBR)復号化,自己老化などを含む包括的フレームワークを提案する。
本研究は,実行ベースメソッドの重要性と,実行ベースメソッドと実行フリーメソッドとの差を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T07:10:36Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Benchopt: Reproducible, efficient and collaborative optimization
benchmarks [67.29240500171532]
Benchoptは、機械学習で最適化ベンチマークを自動化、再生、公開するためのフレームワークである。
Benchoptは実験を実行、共有、拡張するための既製のツールを提供することで、コミュニティのベンチマークを簡単にする。
論文 参考訳(メタデータ) (2022-06-27T16:19:24Z) - SimpleTrack: Understanding and Rethinking 3D Multi-object Tracking [17.351635242415703]
3Dマルチオブジェクトトラッキング(MOT)は、近年、多くの新しいベンチマークやアプローチを目撃している。
その進歩と有用性にもかかわらず、その強さと弱点の詳細な分析はまだ得られていない。
現在の3D MOTメソッドを4つの構成部品に分解することで、統一されたフレームワークにまとめる。
論文 参考訳(メタデータ) (2021-11-18T10:57:57Z) - Uncertainty Baselines: Benchmarks for Uncertainty & Robustness in Deep
Learning [66.59455427102152]
不確実性ベースライン(Uncertainty Baselines): 各種タスクにおける標準および最先端のディープラーニング手法の高品質な実装。
各ベースラインは、簡単に再利用可能で拡張可能なコンポーネントを備えた、自己完結型の実験パイプラインである。
モデルチェックポイント、Pythonノートブックとしての実験出力、結果を比較するためのリーダーボードを提供する。
論文 参考訳(メタデータ) (2021-06-07T23:57:32Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Mimicry: Towards the Reproducibility of GAN Research [0.0]
我々は、人気の高い最先端のGANと評価指標の実装を提供する軽量PyTorchライブラリであるMimicryを紹介する。
我々は、これらのGANを同じ条件下でトレーニングし、同じ手順を用いて3つの一般的なGANメトリクスにわたって評価することにより、異なるGANの総合的なベースライン性能を7つの広く使用されているデータセット上で提供する。
論文 参考訳(メタデータ) (2020-05-05T21:07:26Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。