論文の概要: ROI-GS: Interest-based Local Quality 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2510.01978v1
- Date: Thu, 02 Oct 2025 12:54:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.275175
- Title: ROI-GS: Interest-based Local Quality 3D Gaussian Splatting
- Title(参考訳): ROI-GS: 利子に基づく局所的品質3Dガウススプラッティング
- Authors: Quoc-Anh Bui, Gilles Rougeron, Géraldine Morin, Simone Gasparini,
- Abstract要約: 既存の3Dガウススプレイティング手法は、シーン全体にわたってリソースを均一に割り当て、興味のある領域の詳細な詳細を制限する。
我々は、オブジェクト誘導カメラ選択による局所的な詳細性を高めるオブジェクト認識フレームワークであるROI-GSを提案する。
提案手法は,リアルタイム性能を維持しながら,選択したオブジェクトの高精細度化を優先する。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We tackle the challenge of efficiently reconstructing 3D scenes with high detail on objects of interest. Existing 3D Gaussian Splatting (3DGS) methods allocate resources uniformly across the scene, limiting fine detail to Regions Of Interest (ROIs) and leading to inflated model size. We propose ROI-GS, an object-aware framework that enhances local details through object-guided camera selection, targeted Object training, and seamless integration of high-fidelity object of interest reconstructions into the global scene. Our method prioritizes higher resolution details on chosen objects while maintaining real-time performance. Experiments show that ROI-GS significantly improves local quality (up to 2.96 dB PSNR), while reducing overall model size by $\approx 17\%$ of baseline and achieving faster training for a scene with a single object of interest, outperforming existing methods.
- Abstract(参考訳): 興味の対象を詳細に把握し,効率よく3Dシーンを再構築するという課題に対処する。
既存の3D Gaussian Splatting (3DGS)メソッドは、シーン全体にわたってリソースを均一に割り当て、詳細をROI(Rereas Of Interest)に制限し、膨らませたモデルサイズにつながる。
我々は,オブジェクト誘導カメラの選択,対象物体の訓練,および世界的シーンへの高忠実度オブジェクトのシームレスな統合を通じて,局所的な詳細性を高めるオブジェクト認識フレームワークであるROI-GSを提案する。
提案手法は,リアルタイム性能を維持しながら,選択したオブジェクトの高精細度化を優先する。
実験の結果、ROI-GSは局所的な品質(最大2.96dB PSNR)を大幅に改善し、全体のモデルサイズをベースラインの$\approx 17\%で削減し、単一の関心の対象を持つシーンのより高速なトレーニングを実現し、既存の手法よりも優れていた。
関連論文リスト
- GaussianLens: Localized High-Resolution Reconstruction via On-Demand Gaussian Densification [77.40235389999]
そこで本研究では,ユーザの関心領域の詳細な情報を取得するために,初期3DGSを高密度化するための一般化可能なネットワークを提案する。
提案手法の局所的な細部再構築における優れた性能と,最大1024時間1024ドルの解像度の画像に対するスケーラビリティを示す実験を行った。
論文 参考訳(メタデータ) (2025-09-29T23:58:49Z) - ArtGS: Building Interactable Replicas of Complex Articulated Objects via Gaussian Splatting [66.29782808719301]
コンピュータビジョンにおいて、音声で表現されたオブジェクトを構築することが重要な課題である。
既存のメソッドは、しばしば異なるオブジェクト状態間で効果的に情報を統合できない。
3次元ガウスを柔軟かつ効率的な表現として活用する新しいアプローチであるArtGSを紹介する。
論文 参考訳(メタデータ) (2025-02-26T10:25:32Z) - ROI-NeRFs: Hi-Fi Visualization of Objects of Interest within a Scene by NeRFs Composition [1.0249620437940998]
本研究では,ニューラルレージアンス場(NeRF)を用いた大規模シーン内の物体を高精細度で可視化することの課題に対処する。
提案したROI-NeRFsフレームワークは、シーンを、シーン全体を適度な詳細で表現するScene NeRFと、ユーザ定義対象にフォーカスする複数のROI NeRFに分割する。
合成フェーズにおいて、レイレベル構成レンダリング技術は、Scene NeRFとROI NeRFの情報を組み合わせて、同時多目的描画合成を可能にする。
論文 参考訳(メタデータ) (2025-02-18T09:24:15Z) - Radiant: Large-scale 3D Gaussian Rendering based on Hierarchical Framework [13.583584930991847]
大規模シーン再構成のための階層型3DGSアルゴリズムであるRadiantを提案する。
Radiantは、リビルド品質を最大25.7%改善し、エンドツーエンドのレイテンシを79.6%削減した。
論文 参考訳(メタデータ) (2024-12-07T05:48:00Z) - PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR
Point Clouds [29.15589024703907]
本稿では,計算資源の割り当ての観点から,局所的な点集合体を再考する。
最も単純な柱ベースのモデルは、精度とレイテンシの両方を考慮して驚くほどよく機能することがわかった。
本研究は,3次元物体検出の高性能化のために,詳細な幾何学的モデリングが不可欠である,という一般的な直観に挑戦する。
論文 参考訳(メタデータ) (2023-05-08T17:59:14Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - CAGroup3D: Class-Aware Grouping for 3D Object Detection on Point Clouds [55.44204039410225]
本稿では,CAGroup3Dという新しい2段階完全スパース3Dオブジェクト検出フレームワークを提案する。
提案手法は,まず,オブジェクト表面のボクセル上でのクラス認識型局所群戦略を活用することによって,高品質な3D提案を生成する。
不正なボクセルワイドセグメンテーションにより欠落したボクセルの特徴を回復するために,完全にスパースな畳み込み型RoIプールモジュールを構築した。
論文 参考訳(メタデータ) (2022-10-09T13:38:48Z) - ReorientBot: Learning Object Reorientation for Specific-Posed Placement [19.502587411252946]
本稿では,1)RGB-Dカメラを用いたポーズ推定とボリューム再構成を併用した視覚的シーン理解システムReorientBotを提案する。
シミュレーションと実世界の両方でYCBオブジェクトを用いて評価し,全体の93%の成功,81%の成功率の改善,22%の実行時間の改善を実現した。
論文 参考訳(メタデータ) (2022-02-22T18:46:52Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。