論文の概要: Achieving RGB-D level Segmentation Performance from a Single ToF Camera
- arxiv url: http://arxiv.org/abs/2306.17636v1
- Date: Fri, 30 Jun 2023 13:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:27:10.794125
- Title: Achieving RGB-D level Segmentation Performance from a Single ToF Camera
- Title(参考訳): 単一ToFカメラによるRGB-Dレベルセグメンテーション性能の達成
- Authors: Pranav Sharma, Jigyasa Singh Katrolia, Jason Rambach, Bruno Mirbach,
Didier Stricker, Juergen Seiler
- Abstract要約: Infrared (IR) とdeep image を用いて1台の Time-of-Flight (ToF) カメラのセマンティックセグメンテーションタスクにおいて,RGB-D カメラと同じレベルの精度が得られることを示す。
- 参考スコア(独自算出の注目度): 9.99197786343155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth is a very important modality in computer vision, typically used as
complementary information to RGB, provided by RGB-D cameras. In this work, we
show that it is possible to obtain the same level of accuracy as RGB-D cameras
on a semantic segmentation task using infrared (IR) and depth images from a
single Time-of-Flight (ToF) camera. In order to fuse the IR and depth
modalities of the ToF camera, we introduce a method utilizing depth-specific
convolutions in a multi-task learning framework. In our evaluation on an in-car
segmentation dataset, we demonstrate the competitiveness of our method against
the more costly RGB-D approaches.
- Abstract(参考訳): 奥行きはコンピュータビジョンにおいて非常に重要なモダリティであり、通常、RGB-Dカメラによって提供されるRGBの補完情報として使用される。
本研究では,赤外線(IR)と1台のTime-of-Flight(ToF)カメラの深度画像を用いて,RGB-Dカメラと同レベルの精度が得られることを示す。
ToFカメラの赤外線と深度変調を融合させるために,マルチタスク学習フレームワークにおける深度特異的畳み込みを利用した手法を提案する。
車両内セグメンテーションデータセットの評価において,よりコストのかかるRGB-Dアプローチに対する手法の競争性を実証した。
関連論文リスト
- RAW-Diffusion: RGB-Guided Diffusion Models for High-Fidelity RAW Image Generation [4.625376287612609]
RGB画像でガイドされたRAW画像を生成するための新しい拡散法を提案する。
このアプローチは高忠実度RAW画像を生成し、カメラ固有のRAWデータセットの作成を可能にする。
提案手法を拡張してBDD100K-RAWとCityscapes-RAWデータセットを作成し,RAW画像におけるオブジェクト検出の有効性を明らかにする。
論文 参考訳(メタデータ) (2024-11-20T09:40:12Z) - Diffusion-based RGB-D Semantic Segmentation with Deformable Attention Transformer [10.982521876026281]
本稿では,RGB-Dセマンティックセグメンテーション問題に対処する拡散型フレームワークを提案する。
本研究では,デフォルマブルアテンション変換器をエンコーダとして利用し,奥行き画像から特徴を抽出することにより,デフォルマブルアテンション変換器の特性を効果的に把握できることを実証する。
論文 参考訳(メタデータ) (2024-09-23T15:23:01Z) - Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods [30.34690112905212]
RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
本稿では, ネットワーク構造, 学習戦略, 評価指標, ベンチマークデータセット, 客観的関数など, RGBガイドによるToFイメージングに関する研究を包括的にレビューする。
論文 参考訳(メタデータ) (2024-05-16T17:59:58Z) - Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion [1.8820731605557168]
注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
論文 参考訳(メタデータ) (2023-09-04T14:16:08Z) - FloatingFusion: Depth from ToF and Image-stabilized Stereo Cameras [37.812681878193914]
スマートフォンには、飛行時間(ToF)深度センサーと複数のカラーカメラを備えたマルチモーダルカメラシステムが搭載されている。
高精度な高解像度の深度を作り出すことは、ToFセンサーの低解像度と限られた能動照明力のために依然として困難である。
本稿では,1枚のスナップショットからカメラパラメータを推定できる高密度2D/3Dマッチングに基づく自動校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T09:57:09Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。