論文の概要: PruNeRF: Segment-Centric Dataset Pruning via 3D Spatial Consistency
- arxiv url: http://arxiv.org/abs/2406.00798v1
- Date: Sun, 2 Jun 2024 16:49:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 03:26:39.104415
- Title: PruNeRF: Segment-Centric Dataset Pruning via 3D Spatial Consistency
- Title(参考訳): PruNeRF:3次元空間一貫性によるセグメント中心データプルーニング
- Authors: Yeonsung Jung, Heecheol Yun, Joonhyung Park, Jin-Hwa Kim, Eunho Yang,
- Abstract要約: PruNeRFは3次元空間整合性によるセグメント中心のデータセットプルーニングフレームワークである。
ベンチマークデータセットを用いた実験により、PruNeRFは邪魔者に対するロバスト性において、最先端の手法よりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 33.68948881727943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields (NeRF) have shown remarkable performance in learning 3D scenes. However, NeRF exhibits vulnerability when confronted with distractors in the training images -- unexpected objects are present only within specific views, such as moving entities like pedestrians or birds. Excluding distractors during dataset construction is a straightforward solution, but without prior knowledge of their types and quantities, it becomes prohibitively expensive. In this paper, we propose PruNeRF, a segment-centric dataset pruning framework via 3D spatial consistency, that effectively identifies and prunes the distractors. We first examine existing metrics for measuring pixel-wise distraction and introduce Influence Functions for more accurate measurements. Then, we assess 3D spatial consistency using a depth-based reprojection technique to obtain 3D-aware distraction. Furthermore, we incorporate segmentation for pixel-to-segment refinement, enabling more precise identification. Our experiments on benchmark datasets demonstrate that PruNeRF consistently outperforms state-of-the-art methods in robustness against distractors.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は3Dシーンの学習において顕著な性能を示した。
予想外の物体は、歩行者や鳥などの移動物体など特定の視点にしか存在しない。
データセット構築中に気を散らすものを除くことは簡単な解決策だが、それらのタイプや量に関する事前の知識がなければ、違法に高価になる。
本稿では,3次元空間整合性によるセグメント中心のデータセット解析フレームワークであるPruNeRFを提案する。
まず,画素単位の歪みを測定するための既存の指標について検討し,より正確な測定を行うためのインフルエンス関数を導入する。
そこで,深度に基づく再投射手法を用いて3次元空間整合性の評価を行い,その3次元空間整合性について検討した。
さらに,ピクセル・ツー・セグメンテーションのためのセグメンテーションを組み込み,より正確な識別を可能にする。
ベンチマークデータセットを用いた実験により、PruNeRFは邪魔者に対するロバスト性において、最先端の手法よりも一貫して優れていることが示された。
関連論文リスト
- The Devil is in the Details: Simple Remedies for Image-to-LiDAR Representation Learning [21.088879084249328]
我々は、空間的および時間的軸に沿って見過ごされた設計選択に焦点を当てる。
基本設計要素、例えばLiDAR座標系、既存の入力インタフェースによる量子化は、損失関数の開発よりも重要である。
論文 参考訳(メタデータ) (2025-01-16T11:44:29Z) - FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with Pre-trained Vision-Language Models [59.13757801286343]
クラス増分学習(class-incremental learning)は、モデルが限られたデータで漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
本稿では,特徴空間の不整合のための冗長特徴除去器 (RFE) と,重要な雑音に対する空間ノイズ補償器 (SNC) の2つの新しいコンポーネントを備えたFILP-3Dフレームワークを紹介する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - NeRF-Det: Learning Geometry-Aware Volumetric Representation for
Multi-View 3D Object Detection [65.02633277884911]
提案するNeRF-Detは,RGB画像を入力として室内3次元検出を行う新しい手法である。
提案手法は3次元形状を明示的に推定するため, エンドツーエンドでNeRFを用いて3次元検出性能を向上する。
論文 参考訳(メタデータ) (2023-07-27T04:36:16Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。