論文の概要: Geometric Proxies for Live RGB-D Stream Enhancement and Consolidation
- arxiv url: http://arxiv.org/abs/2001.07577v1
- Date: Tue, 21 Jan 2020 14:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:21:06.237063
- Title: Geometric Proxies for Live RGB-D Stream Enhancement and Consolidation
- Title(参考訳): ライブRGB-Dストリームの強化と統合のための幾何学的プロキシ
- Authors: Adrien Kaiser, Jos\'e Alonso Ybanez Zepeda, Tamy Boubekeur
- Abstract要約: RGB-Dデータの統合リアルタイム処理のための幾何学的スーパー構造を提案する。
我々のアプローチは、検出された幾何学的プロキシ上でパラメータ化された1組のコンパクトな局所統計集合の生成と更新である。
本稿では,最近のオープンなRGB-Dデータセットにおいて,異なる性質の屋内シーンで実施した実験について述べる。
- 参考スコア(独自算出の注目度): 7.920114031312631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a geometric superstructure for unified real-time processing of
RGB-D data. Modern RGB-D sensors are widely used for indoor 3D capture, with
applications ranging from modeling to robotics, through augmented reality.
Nevertheless, their use is limited by their low resolution, with frames often
corrupted with noise, missing data and temporal inconsistencies. Our approach
consists in generating and updating through time a single set of compact local
statistics parameterized over detected geometric proxies, which are fed from
raw RGB-D data. Our proxies provide several processing primitives, which
improve the quality of the RGB-D stream on the fly or lighten further
operations. Experimental results confirm that our lightweight analysis
framework copes well with embedded execution as well as moderate memory and
computational capabilities compared to state-of-the-art methods. Processing
RGB-D data with our proxies allows noise and temporal flickering removal, hole
filling and resampling. As a substitute of the observed scene, our proxies can
additionally be applied to compression and scene reconstruction. We present
experiments performed with our framework in indoor scenes of different natures
within a recent open RGB-D dataset.
- Abstract(参考訳): RGB-Dデータの統合リアルタイム処理のための幾何学的スーパー構造を提案する。
現代のRGB-Dセンサーは、モデリングからロボティクス、拡張現実に至るまで、屋内3Dキャプチャーに広く利用されている。
それでも、それらの使用は低解像度で制限されており、しばしばノイズやデータ不足、時間的矛盾によってフレームが破損する。
提案手法は,RGB-Dデータから得られる検出された幾何学的プロキシ上でパラメータ化された1組のコンパクト局所統計集合の生成と更新を行う。
我々のプロキシはいくつかの処理プリミティブを提供し、オンザフライでのRGB-Dストリームの品質を向上させるか、さらなる操作を軽量化する。
実験結果から,我々の軽量解析フレームワークは組込み型実行と中程度のメモリと計算能力によく対応していることが確認された。
プロキシでRGB-Dデータを処理することで、ノイズや時間的フレッカリングの除去、穴埋め、再サンプリングが可能になります。
観察したシーンの代わりに、我々のプロキシは圧縮やシーンの再構成にも適用できます。
近年のオープンなRGB-Dデータセットにおいて,本フレームワークを用いた実験を行った。
関連論文リスト
- Diffusion-based RGB-D Semantic Segmentation with Deformable Attention Transformer [10.982521876026281]
本稿では,RGB-Dセマンティックセグメンテーション問題に対処する拡散型フレームワークを提案する。
本研究では,デフォルマブルアテンション変換器をエンコーダとして利用し,奥行き画像から特徴を抽出することにより,デフォルマブルアテンション変換器の特性を効果的に把握できることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:23:01Z) - RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - All in One: RGB, RGB-D, and RGB-T Salient Object Detection [6.417439550842723]
オブジェクト指向物体検出(SOD)は、画像内の最も魅力的な物体を特定することを目的としている。
従来の研究では、個々のデータ型による唾液度検出に焦点が当てられていた。
本稿では,3種類のデータに対する健全なオブジェクト検出タスクに統一されたソリューションを提供する,革新的なモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T03:34:41Z) - Attentive Multimodal Fusion for Optical and Scene Flow [24.08052492109655]
既存の方法は通常、RGB画像のみに依存するか、後段のモダリティを融合させる。
本稿では,センサモード間の早期情報融合を可能にするFusionRAFTという新しいディープニューラルネットワーク手法を提案する。
提案手法は,RGB画像に影響を及ぼすノイズや低照度条件の存在下での堅牢性の向上を示す。
論文 参考訳(メタデータ) (2023-07-28T04:36:07Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。