論文の概要: Foreground object segmentation in RGB-D data implemented on GPU
- arxiv url: http://arxiv.org/abs/2002.00250v1
- Date: Sat, 1 Feb 2020 17:53:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 01:13:00.737167
- Title: Foreground object segmentation in RGB-D data implemented on GPU
- Title(参考訳): gpu上に実装したrgb-dデータのフォアグラウンドオブジェクトセグメンテーション
- Authors: Piotr Janus, Tomasz Kryjak, Marek Gorgon
- Abstract要約: 本稿では,RGB-Dデータサポートのための2つの前景オブジェクトセグメンテーションアルゴリズムのGPU実装について述べる。
色(RGB)と深度(D)データの同時使用により、セグメンテーションの精度が向上する。
このシステムは、IntelのRealSense D415とD435の2つのRGB-Dセンサーで動作するように適合している。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a GPU implementation of two foreground object
segmentation algorithms: Gaussian Mixture Model (GMM) and Pixel Based Adaptive
Segmenter (PBAS) modified for RGB-D data support. The simultaneous use of
colour (RGB) and depth (D) data allows to improve segmentation accuracy,
especially in case of colour camouflage, illumination changes and occurrence of
shadows. Three GPUs were used to accelerate calculations: embedded NVIDIA
Jetson TX2 (Maxwell architecture), mobile NVIDIA GeForce GTX 1050m (Pascal
architecture) and efficient NVIDIA RTX 2070 (Turing architecture). Segmentation
accuracy comparable to previously published works was obtained. Moreover, the
use of a GPU platform allowed to get real-time image processing. In addition,
the system has been adapted to work with two RGB-D sensors: RealSense D415 and
D435 from Intel.
- Abstract(参考訳): 本稿では,rgb-dデータサポート用に改良されたgaussian mixed model (gmm) とpixel based adaptive segmenter (pbas) という2つのフォアグラウンドオブジェクトセグメンテーションアルゴリズムのgpu実装について述べる。
色(RGB)と深度(D)データの同時使用により、特に色カモフラージュや照明の変化、影の発生などにおいて、セグメンテーションの精度が向上する。
組み込みNVIDIA Jetson TX2(Maxwellアーキテクチャ)、モバイルNVIDIA GeForce GTX 1050m(Pascalアーキテクチャ)、効率的なNVIDIA RTX 2070(Turingアーキテクチャ)の3つのGPUが計算を高速化するために使用された。
先行した作品に匹敵するセグメンテーション精度が得られた。
さらに、gpuプラットフォームを使用することで、リアルタイム画像処理が可能になる。
さらにこのシステムは、IntelのRealSense D415とD435という2つのRGB-Dセンサーで動作するように適応されている。
関連論文リスト
- Splat-SLAM: Globally Optimized RGB-only SLAM with 3D Gaussians [87.48403838439391]
3D Splattingは、RGBのみの高密度SLAMの幾何学と外観の強力な表現として登場した。
本稿では,高密度な3次元ガウス写像表現を持つRGBのみのSLAMシステムを提案する。
Replica、TUM-RGBD、ScanNetのデータセットに対する実験は、グローバルに最適化された3Dガウスの有効性を示している。
論文 参考訳(メタデータ) (2024-05-26T12:26:54Z) - DFormer: Rethinking RGBD Representation Learning for Semantic
Segmentation [76.81628995237058]
DFormerは、RGB-Dセグメンテーションタスクの転送可能な表現を学ぶための新しいフレームワークである。
ImageNet-1Kから画像深度ペアを使用してバックボーンを事前トレーニングする。
DFormerは2つのRGB-Dタスクで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-18T11:09:11Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Learning Geodesic-Aware Local Features from RGB-D Images [8.115075181267109]
非剛性変形に不変なRGB-D画像から記述子を計算するための新しい手法を提案する。
提案手法は,非歪な局所像パッチ上で特徴表現を学習する鍵となる考え方に基づいている。
実際に利用可能なRGB-Dデータベンチマークを使用したさまざまな実験では、最先端の手作りおよび学習ベースのイメージとRGB-D記述子を一貫して上回っている。
論文 参考訳(メタデータ) (2022-03-22T19:52:49Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - GPU based GMM segmentation of kinect data [3.964047152162558]
本稿では,ガウス混合モデル(GMM)を用いたRGBDデータの背景/地上分割のための新しい手法を提案する。
まず背景画像から色と深度を別々に抽出することから始める。
両方のストリームから生じる前景は、より正確な検出のために融合される。
論文 参考訳(メタデータ) (2021-10-28T08:05:04Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z) - Out-of-Core GPU Gradient Boosting [0.0]
モデル精度やトレーニング時間を劣化させることなく、より大規模なデータセットを所定のGPUに適合させることができることを示す。
グラデーションブースティングのGPU実装としてはこれが初めてだ。
論文 参考訳(メタデータ) (2020-05-19T00:41:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。