論文の概要: Spectral Transfer Guided Active Domain Adaptation For Thermal Imagery
- arxiv url: http://arxiv.org/abs/2304.07031v1
- Date: Fri, 14 Apr 2023 10:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 14:08:00.576244
- Title: Spectral Transfer Guided Active Domain Adaptation For Thermal Imagery
- Title(参考訳): 熱画像のための分光移動誘導アクティブドメイン適応
- Authors: Berkcan Ustun, Ahmet Kagan Kaya, Ezgi Cakir Ayerden, Fazil Altinel
- Abstract要約: 本稿では,可視スペクトルと熱画像量を組み合わせた有効領域適応手法を提案する。
我々は、大規模可視スペクトルデータセットMS-COCOをソースドメインとして、熱データセットFLIR ADASをターゲットドメインとして使用した。
提案手法は最先端のアクティブドメイン適応法より優れている。
- 参考スコア(独自算出の注目度): 1.911678487931003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exploitation of visible spectrum datasets has led deep networks to show
remarkable success. However, real-world tasks include low-lighting conditions
which arise performance bottlenecks for models trained on large-scale RGB image
datasets. Thermal IR cameras are more robust against such conditions.
Therefore, the usage of thermal imagery in real-world applications can be
useful. Unsupervised domain adaptation (UDA) allows transferring information
from a source domain to a fully unlabeled target domain. Despite substantial
improvements in UDA, the performance gap between UDA and its supervised
learning counterpart remains significant. By picking a small number of target
samples to annotate and using them in training, active domain adaptation tries
to mitigate this gap with minimum annotation expense. We propose an active
domain adaptation method in order to examine the efficiency of combining the
visible spectrum and thermal imagery modalities. When the domain gap is
considerably large as in the visible-to-thermal task, we may conclude that the
methods without explicit domain alignment cannot achieve their full potential.
To this end, we propose a spectral transfer guided active domain adaptation
method to select the most informative unlabeled target samples while aligning
source and target domains. We used the large-scale visible spectrum dataset
MS-COCO as the source domain and the thermal dataset FLIR ADAS as the target
domain to present the results of our method. Extensive experimental evaluation
demonstrates that our proposed method outperforms the state-of-the-art active
domain adaptation methods. The code and models are publicly available.
- Abstract(参考訳): 可視スペクトルデータセットの活用により、ディープネットワークは目覚ましい成功を収めた。
しかし、実際のタスクには、大規模なRGBイメージデータセットでトレーニングされたモデルのパフォーマンスボトルネックを引き起こす低照度条件が含まれる。
熱赤外線カメラはそのような条件に対してより堅牢である。
したがって,実世界における熱画像の利用は有用である。
unsupervised domain adaptation(uda)は、ソースドメインから完全にラベルなしのターゲットドメインへの情報転送を可能にする。
UDAは大幅に改善されているが、UDAと教師付き学習の差は依然として大きい。
少数のターゲットサンプルを選択してアノテーションをトレーニングに使用することで、アクティブドメイン適応は最小限のアノテーションコストでこのギャップを緩和しようとする。
本研究では,可視スペクトルと熱画像のモダリティを組み合わせる効率を検討するために,アクティブドメイン適応法を提案する。
ドメインギャップが可視-熱的タスクのようにかなり大きい場合、明示的なドメインアライメントを持たないメソッドは、その全ポテンシャルを達成できないと結論付けることができる。
そこで本研究では,ソースドメインとターゲットドメインを整列させながら,最も情報に富んだ未ラベルのターゲットサンプルを選択するためのスペクトル転送誘導アクティブドメイン適応手法を提案する。
大規模可視スペクトルデータセットMS-COCOをソース領域として,熱データセットFLIR ADASをターゲット領域として,本手法の結果を示した。
実験により,提案手法は最先端のアクティブドメイン適応法よりも優れた性能を示した。
コードとモデルは公開されている。
関連論文リスト
- Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation [72.70876977882882]
臨床応用においては、トレーニング画像(ソース領域)とテスト画像(ターゲット領域)が異なる分布下にある場合、ドメインシフトは一般的な問題である。
本稿では,Few-Shot Unsupervised Domain Adaptation (FSUDA) の新たな手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T16:02:01Z) - Enhancing Visual Domain Adaptation with Source Preparation [5.287588907230967]
ドメイン適応技術は、ソースドメイン自体の特性を考慮できません。
本稿では,ソース領域バイアスを軽減する手法であるソース準備(SP)を提案する。
また,ベースライン上のmIoUでは最大40.64%の改善が見られた。
論文 参考訳(メタデータ) (2023-06-16T18:56:44Z) - Exploring Few-Shot Adaptation for Activity Recognition on Diverse Domains [46.26074225989355]
ドメイン適応は、さまざまな環境における正確で堅牢なパフォーマンスを保証するために、アクティビティ認識に不可欠である。
本研究では,FewShot Domain Adaptation for Activity Recognition (FSDA-AR) に焦点をあてる。
より多様で困難な領域への適応を考慮した5つの確立されたデータセットを用いた新しいFSDA-ARを提案する。
論文 参考訳(メタデータ) (2023-05-15T08:01:05Z) - MADAv2: Advanced Multi-Anchor Based Active Domain Adaptation
Segmentation [98.09845149258972]
セマンティックセグメンテーションタスクに関するドメイン適応を支援するために,アクティブなサンプル選択を導入する。
これらのサンプルを手動でアノテートする作業量が少ないため、ターゲット領域分布の歪みを効果的に緩和することができる。
長期分布問題を緩和するために、強力な半教師付きドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:55:22Z) - An Unsupervised Domain Adaptive Approach for Multimodal 2D Object
Detection in Adverse Weather Conditions [5.217255784808035]
本稿では、ソースとターゲットドメイン間のドメインギャップを埋めるために、教師なしのドメイン適応フレームワークを提案する。
天候の歪みをシミュレートするデータ拡張方式を用いて、ドメインの混乱を増し、ソースデータへの過度な適合を防止する。
DENSEデータセットで行った実験は、我々の手法がドメインギャップを大幅に軽減できることを示している。
論文 参考訳(メタデータ) (2022-03-07T18:10:40Z) - Frequency Spectrum Augmentation Consistency for Domain Adaptive Object
Detection [107.52026281057343]
周波数スペクトル拡張整合(FSAC)フレームワークを4種類の低周波フィルタで構成する。
最初の段階では、オリジナルおよび拡張されたソースデータを全て利用して、オブジェクト検出器を訓練する。
第2段階では、予測一貫性のための自己学習を行うために、擬似ラベル付き拡張現実とターゲットデータを採用する。
論文 参考訳(メタデータ) (2021-12-16T04:07:01Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Self-training Guided Adversarial Domain Adaptation For Thermal Imagery [0.12891210250935145]
RGB対熱画像ペアを必要としない教師なし領域適応法を提案する。
我々は、大規模RGBデータセットMS-COCOをソースドメインとして、熱データセットFLIR ADASをターゲットドメインとして採用する。
自己学習を行うために、対象熱領域のサンプルに擬似ラベルを割り当て、対象熱領域のより一般的な表現を学習する。
論文 参考訳(メタデータ) (2021-06-14T05:17:21Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。