論文の概要: Robust Environment Perception for Automated Driving: A Unified Learning
Pipeline for Visual-Infrared Object Detection
- arxiv url: http://arxiv.org/abs/2206.03943v1
- Date: Wed, 8 Jun 2022 15:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 17:13:11.990587
- Title: Robust Environment Perception for Automated Driving: A Unified Learning
Pipeline for Visual-Infrared Object Detection
- Title(参考訳): 自動走行のためのロバスト環境認識:視覚外物体検出のための統一学習パイプライン
- Authors: Mohsen Vadidar, Ali Kariminezhad, Christian Mayr, Laurent Kloeker and
Lutz Eckstein
- Abstract要約: 我々は、頑健な物体検出のために、視覚と熱の両方の知覚ユニットを利用する。
本稿では,物体検出のために,視覚と熱の両方の知覚ユニットを利用する。
- 参考スコア(独自算出の注目度): 2.478658210785
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The RGB complementary metal-oxidesemiconductor (CMOS) sensor works within the
visible light spectrum. Therefore it is very sensitive to environmental light
conditions. On the contrary, a long-wave infrared (LWIR) sensor operating in
8-14 micro meter spectral band, functions independent of visible light.
In this paper, we exploit both visual and thermal perception units for robust
object detection purposes. After delicate synchronization and (cross-) labeling
of the FLIR [1] dataset, this multi-modal perception data passes through a
convolutional neural network (CNN) to detect three critical objects on the
road, namely pedestrians, bicycles, and cars. After evaluation of RGB and
infrared (thermal and infrared are often used interchangeably) sensors
separately, various network structures are compared to fuse the data at the
feature level effectively. Our RGB-thermal (RGBT) fusion network, which takes
advantage of a novel entropy-block attention module (EBAM), outperforms the
state-of-the-art network [2] by 10% with 82.9% mAP.
- Abstract(参考訳): RGB補体金属酸化物半導体(CMOS)センサーは可視光スペクトル内で動作する。
そのため、環境光条件に非常に敏感である。
反対に、LWIR(Long-wave Infrared)センサーは8-14マイクロメートルのスペクトル帯で動作し、可視光とは無関係に機能する。
本稿では,視覚と熱の両方の知覚ユニットをロバストな物体検出に活用する。
FLIR [1]データセットの微妙な同期と(クロス)ラベル付けの後、このマルチモーダル認識データは畳み込みニューラルネットワーク(CNN)を通過し、道路上の3つの重要な物体(歩行者、自転車、車)を検出する。
RGBと赤外線(熱と赤外線は相互に使用されることが多い)センサーを別々に評価した後、様々なネットワーク構造を比較して特徴レベルのデータを効果的に融合させる。
新たなエントロピーブロックアテンションモジュール(EBAM)を利用するRGB熱水(RGBT)融合ネットワークは、最先端ネットワーク[2]を82.9%mAPで10%上回っている。
関連論文リスト
- Infra-YOLO: Efficient Neural Network Structure with Model Compression for Real-Time Infrared Small Object Detection [4.586010474241955]
InfraTinyという新しいデータセットが構築され、85%以上のバウンディングボックスは32x32ピクセル未満である(3218の画像と合計20,893バウンディングボックス)。
マルチスケールアテンション機構モジュール (MSAM) とFeature Fusion Augmentation Pyramid Module (FFAFPM) が提案され,組込みデバイスに展開された。
提案手法をInfra-YOLOと呼ばれるYOLOモデルに統合することにより、赤外線小物体検出性能が向上した。
論文 参考訳(メタデータ) (2024-08-14T10:49:14Z) - IRSAM: Advancing Segment Anything Model for Infrared Small Target Detection [55.554484379021524]
Infrared Small Target Detection (IRSTD) タスクは、自然画像と赤外線画像の間に顕著な領域ギャップがあるため、満足度の高い性能を達成するには不十分である。
IRSTDのためのIRSAMモデルを提案する。これはSAMのエンコーダデコーダアーキテクチャを改善し、赤外線小物体の特徴表現をより良く学習する。
論文 参考訳(メタデータ) (2024-07-10T10:17:57Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Removal then Selection: A Coarse-to-Fine Fusion Perspective for RGB-Infrared Object Detection [20.12812979315803]
可視光(RGB)と熱赤外(IR)画像の両方を利用した物体検出が注目されている。
既存の多くのマルチモーダルオブジェクト検出手法は、RGBとIR画像をディープニューラルネットワークに直接入力する。
両モダリティから特徴を浄化・融合する新しい粗大な視点を提案する。
論文 参考訳(メタデータ) (2024-01-19T14:49:42Z) - Interactive Context-Aware Network for RGB-T Salient Object Detection [7.544240329265388]
ICANet(Interactive Context-Aware Network)と呼ばれる新しいネットワークを提案する。
ICANetには、クロスモーダルとクロススケールの融合を効果的に実行する3つのモジュールが含まれている。
実験により,我々のネットワークは最先端のRGB-T SOD法に対して良好に動作していることが示された。
論文 参考訳(メタデータ) (2022-11-11T10:04:36Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - Infrared Small-Dim Target Detection with Transformer under Complex
Backgrounds [155.388487263872]
変換器を用いた赤外線小径目標検出手法を提案する。
画像特徴の相互作用情報をより広い範囲で学習するために,変換器の自己認識機構を採用する。
最小限のターゲットの機能を学習するための機能拡張モジュールも設計しています。
論文 参考訳(メタデータ) (2021-09-29T12:23:41Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。