論文の概要: No Calibration, No Depth, No Problem: Cross-Sensor View Synthesis with 3D Consistency
- arxiv url: http://arxiv.org/abs/2602.23559v1
- Date: Fri, 27 Feb 2026 00:05:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.172004
- Title: No Calibration, No Depth, No Problem: Cross-Sensor View Synthesis with 3D Consistency
- Title(参考訳): キャリブレーションなし、深さなし、問題なし:3次元一貫性を持つクロスセンサービュー合成
- Authors: Cho-Ying Wu, Zixun Huang, Xinyu Huang, Liu Ren,
- Abstract要約: 本研究は、異なるモード間でのクロスセンサービュー合成に関する最初の研究である。
一致したRGB-Xデータを取得するためのマッチング密度統合手法を提案する。
提案手法では,Xセンサの3次元先行処理は使用せず,RGBのCOLMAPをほとんど使用しない。
- 参考スコア(独自算出の注目度): 21.94947453188333
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present the first study of cross-sensor view synthesis across different modalities. We examine a practical, fundamental, yet widely overlooked problem: getting aligned RGB-X data, where most RGB-X prior work assumes such pairs exist and focuses on modality fusion, but it empirically requires huge engineering effort in calibration. We propose a match-densify-consolidate method. First, we perform RGB-X image matching followed by guided point densification. Using the proposed confidence-aware densification and self-matching filtering, we attain better view synthesis and later consolidate them in 3D Gaussian Splatting (3DGS). Our method uses no 3D priors for X-sensor and only assumes nearly no-cost COLMAP for RGB. We aim to remove the cumbersome calibration for various RGB-X sensors and advance the popularity of cross-sensor learning by a scalable solution that breaks through the bottleneck in large-scale real-world RGB-X data collection.
- Abstract(参考訳): 本研究は、異なるモード間でのクロスセンサービュー合成に関する最初の研究である。
RGB-Xは、ほとんどのRGB-Xがそのようなペアが存在すると仮定し、モダリティ融合に重点を置いているが、実証的にはキャリブレーションにおいて膨大なエンジニアリング努力を必要とする。
そこで本研究では,マッチ・デンシファイド・コンソリデート法を提案する。
まず、RGB-X画像マッチングを行い、次にガイド付き点密度化を行う。
提案した信頼性認識型密度化と自己マッチングフィルタリングを用いて、よりよく合成し、後に3Dガウススプラッティング(3DGS)に統合する。
提案手法では,Xセンサの3次元先行処理は使用せず,RGBのCOLMAPをほとんど使用しない。
我々は、様々なRGB-Xセンサの煩雑な校正を取り除き、大規模実世界のRGB-Xデータ収集のボトルネックを突破するスケーラブルなソリューションにより、クロスセンサ学習の人気を高めることを目的としている。
関連論文リスト
- MonoGS++: Fast and Accurate Monocular RGB Gaussian SLAM [9.37281948308712]
高速かつ高精度なSLAM法であるMonoGS++を提案する。
当社のアプローチでは,ハードウェア依存を低減し,RGB入力のみを必要としており,オンラインビジュアルオドメトリー(VO)を利用して,疎点雲をリアルタイムに生成する。
提案手法は,従来のMonoGSに比べて,毎秒5.57倍のフレーム(fps)向上を実現した。
論文 参考訳(メタデータ) (2025-04-03T09:51:51Z) - Volumetrically Consistent 3D Gaussian Rasterization [18.84882580327324]
また,スプレイティングにおけるコア近似は,ビューライザ内においても不要であることを示す。
この分析透過率を用いて3DGSよりも高精度なアルファ値を得る。
本手法は, 3DGSよりも精度が高く, 点数が少ない表面を表現している。
論文 参考訳(メタデータ) (2024-12-04T15:05:43Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - RGB-D Salient Object Detection via 3D Convolutional Neural Networks [19.20231385522917]
3D畳み込みニューラルネットワークによるRGB-D SODへの対処を試みます。
提案したRD3Dは、エンコーダ段階での事前融合とデコーダ段階での深部融合を目的としている。
RD3Dは4つの重要な評価指標から,14の最先端RGB-D SODアプローチに対して良好に機能することを示す。
論文 参考訳(メタデータ) (2021-01-25T17:03:02Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - EPOS: Estimating 6D Pose of Objects with Symmetries [57.448933686429825]
1つのRGB入力から利用可能な3次元モデルを用いて、剛体物体の6次元ポーズを推定する新しい手法を提案する。
オブジェクトは、体系的な方法で対称性を許容するコンパクトな表面フラグメントによって表現される。
エンコーダデコーダネットワークを用いて,高密度サンプリング画素とフラグメントの対応性を予測する。
論文 参考訳(メタデータ) (2020-04-01T17:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。