論文の概要: SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2103.03150v1
- Date: Thu, 4 Mar 2021 16:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 15:44:55.843015
- Title: SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving
- Title(参考訳): SSTN:自律運転のための自己監督型ドメイン適応熱物体検出
- Authors: Farzeen Munir, Shoaib Azam and Moongu Jeon
- Abstract要約: コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
- 参考スコア(独自算出の注目度): 6.810856082577402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sensibility and sensitivity of the environment play a decisive role in
the safe and secure operation of autonomous vehicles. This perception of the
surrounding is way similar to human visual representation. The human's brain
perceives the environment by utilizing different sensory channels and develop a
view-invariant representation model. Keeping in this context, different
exteroceptive sensors are deployed on the autonomous vehicle for perceiving the
environment. The most common exteroceptive sensors are camera, Lidar and radar
for autonomous vehicle's perception. Despite being these sensors have
illustrated their benefit in the visible spectrum domain yet in the adverse
weather conditions, for instance, at night, they have limited operation
capability, which may lead to fatal accidents. In this work, we explore thermal
object detection to model a view-invariant model representation by employing
the self-supervised contrastive learning approach. For this purpose, we have
proposed a deep neural network Self Supervised Thermal Network (SSTN) for
learning the feature embedding to maximize the information between visible and
infrared spectrum domain by contrastive learning, and later employing these
learned feature representation for the thermal object detection using
multi-scale encoder-decoder transformer network. The proposed method is
extensively evaluated on the two publicly available datasets: the FLIR-ADAS
dataset and the KAIST Multi-Spectral dataset. The experimental results
illustrate the efficacy of the proposed method.
- Abstract(参考訳): 環境の感受性と感度は、自動運転車の安全かつ安全な運転において決定的な役割を果たす。
周囲のこの知覚は、人間の視覚表現に似ています。
人間の脳は、異なる感覚チャネルを利用して環境を知覚し、ビュー不変表現モデルを開発する。
この状況を維持しながら、異なる外部受容センサーが環境を知覚するために自動運転車に展開される。
最も一般的な感知センサは、自動運転車の知覚のためのカメラ、ライダー、レーダーです。
これらのセンサーは、例えば夜間の悪天候下では可視スペクトル領域の利点を示してきたが、運用能力は限られており、致命的な事故を引き起こす可能性がある。
本研究では, 自己監督型コントラスト学習手法を用いて, ビュー不変モデル表現をモデル化する熱物体検出手法を検討する。
そこで本研究では,可視領域と赤外領域の情報をコントラスト学習により最大化するための特徴埋め込みを学習する深層ニューラルネットワーク self supervised thermal network (sstn) を提案し,その特徴表現をマルチスケールエンコーダ・デコーダトランスフォーマネットワークを用いた熱物体検出に適用した。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
実験結果は,提案手法の有効性を示す。
関連論文リスト
- Exploring Domain Shift on Radar-Based 3D Object Detection Amidst Diverse Environmental Conditions [15.767261586617746]
この研究は、4Dレーダーによる物体検出において、しばしば見過ごされがちな領域シフトの問題について考察する。
以上の結果から,様々な気象シナリオにまたがるドメインシフトが明らかになり,ユニークなデータセットの感度が明らかになった。
異なる道路タイプ、特に高速道路から都市環境への移行は、顕著な領域シフトをもたらします。
論文 参考訳(メタデータ) (2024-08-13T09:55:38Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - ARTSeg: Employing Attention for Thermal images Semantic Segmentation [6.060020806741279]
サーマルセマンティックセグメンテーションのためのARTSegという,アテンションベースのRecurrent Convolution Network (RCNN)エンコーダ・デコーダアーキテクチャを設計した。
提案手法の有効性を公開データセット上で評価し, 平均和合(IoU)における他の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-30T10:17:28Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - All-Weather Object Recognition Using Radar and Infrared Sensing [1.7513645771137178]
この論文は、物体を認識するために、長波偏光赤外線(IR)画像とイメージングレーダに基づく新しいセンシング開発を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に、低THzレーダセンサで捉えたパワースペクトルのみを用いて、制御されたシナリオで物体認識を行う可能性について検討した。
最後に、悪天候下で車両を検出するレーダーロバスト性を示す多くの異なる気象シナリオを備えた、"ワイルド"に新しい大規模なデータセットを作成しました。
論文 参考訳(メタデータ) (2020-10-30T14:16:39Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。