論文の概要: LiCAR: pseudo-RGB LiDAR image for CAR segmentation
- arxiv url: http://arxiv.org/abs/2501.13960v1
- Date: Tue, 21 Jan 2025 07:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:51.979402
- Title: LiCAR: pseudo-RGB LiDAR image for CAR segmentation
- Title(参考訳): LiCAR:CARセグメンテーションのための擬似RGB LiDAR画像
- Authors: Ignacio de Loyola Páez-Ubieta, Edison P. Velasco-Sánchez, Santiago T. Puente,
- Abstract要約: 擬似RGB画像における車両のセグメンテーションのための新しいデータセットが作成された。
このデータセットは、LiDARセンサから得られる情報をSRI(Spherical Range Image)に結合する。
これらのイメージは、インスタンスセグメンテーションNNに入力される。
いくつかのトラッカーは、ビデオフィードに沿って各車両のセグメンテーションインスタンスに従うように適用されており、実世界の実験では優れた性能を示している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the advancement of computing resources, an increasing number of Neural Networks (NNs) are appearing for image detection and segmentation appear. However, these methods usually accept as input a RGB 2D image. On the other side, Light Detection And Ranging (LiDAR) sensors with many layers provide images that are similar to those obtained from a traditional low resolution RGB camera. Following this principle, a new dataset for segmenting cars in pseudo-RGB images has been generated. This dataset combines the information given by the LiDAR sensor into a Spherical Range Image (SRI), concretely the reflectivity, near infrared and signal intensity 2D images. These images are then fed into instance segmentation NNs. These NNs segment the cars that appear in these images, having as result a Bounding Box (BB) and mask precision of 88% and 81.5% respectively with You Only Look Once (YOLO)-v8 large. By using this segmentation NN, some trackers have been applied so as to follow each car segmented instance along a video feed, having great performance in real world experiments.
- Abstract(参考訳): コンピューティングリソースの進歩に伴い、画像の検出とセグメント化のために、NN(Neural Networks)が増えている。
しかし、これらの手法は通常、RGB 2D画像の入力として受け入れる。
一方、LiDAR(Light Detection And Ranging)センサーには多くの層があるため、従来の低解像度のRGBカメラとよく似た画像が得られる。
この原則に従って、擬似RGB画像における車両のセグメンテーションのための新しいデータセットが作成された。
このデータセットは、LiDARセンサから与えられた情報を球レンジ画像(SRI)、具体的には反射率、近赤外、信号強度2D画像に組み合わせる。
これらのイメージは、インスタンスセグメンテーションNNに入力される。
これらのNNはこれらの画像に現れる車両を分割し、結果としてバウンディングボックス(BB)とマスクの精度が88%、マスクの精度が81.5%となり、You Only Look Once (YOLO)-v8大になった。
このセグメンテーションNNを使用することで、ビデオフィードに沿って各車両セグメンテーションインスタンスを追従するトラッカーが適用され、実世界の実験において優れた性能を発揮する。
関連論文リスト
- Multispectral Texture Synthesis using RGB Convolutional Neural Networks [2.3213238782019316]
最先端のRGBテクスチャ合成アルゴリズムは、深い特徴の統計によって計算されるスタイル距離に依存している。
本稿では,これらの手法をマルチスペクトルイメージングに拡張する2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-21T13:49:54Z) - Simple Image Signal Processing using Global Context Guidance [56.41827271721955]
ディープラーニングベースのISPは、深層ニューラルネットワークを使用してRAW画像をDSLRライクなRGBイメージに変換することを目指している。
我々は,全RAW画像からグローバルなコンテキスト情報をキャプチャするために,任意のニューラルISPに統合可能な新しいモジュールを提案する。
本モデルでは,多種多様な実スマートフォン画像を用いて,様々なベンチマークで最新の結果が得られる。
論文 参考訳(メタデータ) (2024-04-17T17:11:47Z) - NWPU-MOC: A Benchmark for Fine-grained Multi-category Object Counting in
Aerial Images [64.92809155168595]
本稿では,空中画像中の異なる物体の数を推定する多カテゴリオブジェクトカウントタスクを提案する。
このタスクのデータセットが存在しないことを考慮して、大規模なデータセットが収集され、解像度が1024$times$1024ピクセルの3,416のシーンで構成されている。
本稿では,RGB と NIR の特徴を融合させるために,デュアルアテンションモジュールを用いたマルチスペクトル・マルチカテゴリオブジェクトカウントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T07:12:36Z) - Visible and infrared self-supervised fusion trained on a single example [1.1188842018827656]
マルチスペクトルイメージングは画像処理とコンピュータビジョンにおいて重要な課題である。
近赤外(NIR)画像融合における可視光(RGB)の問題点は特にタイムリである。
提案されたアプローチは、単一の例で自己監視学習(SSL)によって畳み込みニューラルネットワークをトレーニングすることで、これら2つのチャネルを融合させる。
実験により, 提案手法は, 同様の, より質的, 定量的な多スペクトル核融合結果が得られることを示した。
論文 参考訳(メタデータ) (2023-07-09T05:25:46Z) - Traffic Congestion Prediction using Deep Convolutional Neural Networks:
A Color-coding Approach [0.0]
本研究では、ディープ畳み込みニューラルネットワークにおけるトラフィックデータをトレーニングする前に、カラー符号化方式を用いたトラフィックビデオ分類のためのユニークな手法を提案する。
まず、ビデオデータを画像データセットに変換し、その後、You Only Look Onceアルゴリズムを用いて車両検出を行う。
UCSDデータセットを用いて98.2%の分類精度を得た。
論文 参考訳(メタデータ) (2022-09-16T14:02:20Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。