論文の概要: ATRNet-STAR: A Large Dataset and Benchmark Towards Remote Sensing Object Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2501.13354v4
- Date: Thu, 13 Mar 2025 10:51:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 12:35:47.598733
- Title: ATRNet-STAR: A Large Dataset and Benchmark Towards Remote Sensing Object Recognition in the Wild
- Title(参考訳): ATRNet-STAR: 野生におけるリモートセンシングオブジェクト認識に向けた大規模データセットとベンチマーク
- Authors: Yongxiang Liu, Weijie Li, Li Liu, Jie Zhou, Bowen Peng, Yafei Song, Xuying Xiong, Wei Yang, Tianpeng Liu, Zhen Liu, Xiang Li,
- Abstract要約: 本稿では,ATRNet-STARと呼ばれる大規模で新しいデータセットについて紹介する。
データセットのスケールと多様性が大幅に向上し、190,000以上の注釈付きサンプルが含まれており、これは前身の有名なMSTARの10倍である。
- 参考スコア(独自算出の注目度): 32.95927545676425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The absence of publicly available, large-scale, high-quality datasets for Synthetic Aperture Radar Automatic Target Recognition (SAR ATR) has significantly hindered the application of rapidly advancing deep learning techniques, which hold huge potential to unlock new capabilities in this field. This is primarily because collecting large volumes of diverse target samples from SAR images is prohibitively expensive, largely due to privacy concerns, the characteristics of microwave radar imagery perception, and the need for specialized expertise in data annotation. Throughout the history of SAR ATR research, there have been only a number of small datasets, mainly including targets like ships, airplanes, buildings, etc. There is only one vehicle dataset MSTAR collected in the 1990s, which has been a valuable source for SAR ATR. To fill this gap, this paper introduces a large-scale, new dataset named ATRNet-STAR with 40 different vehicle categories collected under various realistic imaging conditions and scenes. It marks a substantial advancement in dataset scale and diversity, comprising over 190,000 well-annotated samples, 10 times larger than its predecessor, the famous MSTAR. Building such a large dataset is a challenging task, and the data collection scheme will be detailed. Secondly, we illustrate the value of ATRNet-STAR via extensively evaluating the performance of 15 representative methods with 7 different experimental settings on challenging classification and detection benchmarks derived from the dataset. Finally, based on our extensive experiments, we identify valuable insights for SAR ATR and discuss potential future research directions in this field. We hope that the scale, diversity, and benchmark of ATRNet-STAR can significantly facilitate the advancement of SAR ATR.
- Abstract(参考訳): SAR ATR(Synthetic Aperture Radar Automatic Target Recognition)のための、公開され、大規模で高品質なデータセットが存在しないことで、急速に進歩するディープラーニング技術の適用が著しく妨げられ、この分野の新機能をアンロックする大きな可能性を秘めている。
これは主に、SAR画像から多種多様なターゲットサンプルを大量に収集することは、プライバシー上の懸念、マイクロ波レーダー画像認識の特性、データアノテーションの専門知識の必要性などにより、極めて高価である。
SAR ATR研究の歴史を通じて、主に船、飛行機、建物などのターゲットを含む、少数の小さなデータセットしか存在しなかった。
1990年代に収集されたMSTARは1つしかないが、これはSAR ATRにとって貴重な情報源である。
このギャップを埋めるために,ATRNet-STARと呼ばれる大規模で新しいデータセットを紹介した。
データセットのスケールと多様性が大幅に向上し、190,000以上の注釈付きサンプルが含まれており、これは前身の有名なMSTARの10倍である。
このような大規模なデータセットの構築は難しい作業であり、データ収集スキームの詳細は明らかになるだろう。
第2に,ATRNet-STARの価値を,データセットから抽出した分類と検出のベンチマークに挑戦する7つの異なる実験条件を持つ15の代表的な手法の性能を広範囲に評価することで説明する。
最後に、我々の広範な実験に基づいて、SAR ATRの貴重な知見を特定し、この分野における今後の研究方向性について論じる。
ATRNet-STARのスケール、多様性、およびベンチマークにより、SAR ATRの進歩が著しく促進されることを期待する。
関連論文リスト
- Efficient Self-Supervised Learning for Earth Observation via Dynamic Dataset Curation [67.23953699167274]
自己教師付き学習(SSL)により、地球観測のための視覚基盤モデルの開発が可能になった。
EOでは、この課題は衛星画像に共通する冗長性と重尾分布によって増幅される。
本稿では,データセットの多様性とバランスを最大化し,SSL事前トレーニングを改善するために設計された動的データセットプルーニング戦略を提案する。
論文 参考訳(メタデータ) (2025-04-09T15:13:26Z) - Towards SAR Automatic Target Recognition MultiCategory SAR Image Classification Based on Light Weight Vision Transformer [11.983317593939688]
本稿では,SAR画像の分類に軽量な視覚変換器モデルを適用しようとする。
構造全体がオープンアクセスされたSARデータセットによって検証された。
論文 参考訳(メタデータ) (2024-05-18T11:24:52Z) - SARATR-X: Toward Building A Foundation Model for SAR Target Recognition [22.770010893572973]
SAR ATRの基盤モデル構築に向けた最初の試みをSARATR-Xと呼ぶ。
SARATR-Xは、自己教師付き学習(SSL)を通じて一般化可能な表現を学び、汎用的なSARターゲット検出と分類タスクへのラベル効率のモデル適応のための基盤を提供する。
SARATR-Xは0.18Mの未ラベルのSARターゲットサンプルで訓練されており、これは同時代のベンチマークを組み合わせてキュレーションされ、これまでで最大の公開データセットとなっている。
論文 参考訳(メタデータ) (2024-05-15T14:17:44Z) - FlightScope: An Experimental Comparative Review of Aircraft Detection Algorithms in Satellite Imagery [2.9687381456164004]
本稿では,衛星画像中の航空機を識別するタスク用にカスタマイズされた,高度な物体検出アルゴリズム群を批判的に評価し,比較する。
この研究は、YOLOバージョン5と8、より高速なRCNN、CenterNet、RetinaNet、RTMDet、DETRを含む一連の方法論を含む。
YOLOv5は空中物体検出のための堅牢なソリューションとして登場し、平均的精度、リコール、ユニオンのスコアに対するインターセクションによってその重要性を裏付けている。
論文 参考訳(メタデータ) (2024-04-03T17:24:27Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - Predicting Gradient is Better: Exploring Self-Supervised Learning for SAR ATR with a Joint-Embedding Predictive Architecture [23.375515181854254]
SSL(Self-Supervised Learning)手法は,大規模未ラベルデータの事前学習を伴う様々なSAR自動ターゲット認識(ATR)タスクを実現する。
SSLはデータから直接監視信号を構築することを目的としている。
本研究では,SAR ATRの基盤モデル構築に有効なSSL方式について検討した。
論文 参考訳(メタデータ) (2023-11-26T01:05:55Z) - Scaling Data Generation in Vision-and-Language Navigation [116.95534559103788]
本稿では,学習のための大規模データ生成に有効なパラダイムを提案する。
我々は、HM3DとGibsonのデータセットから1200以上のフォトリアリスティック環境を適用し、490万の命令軌道対を合成する。
我々の大規模データセットのおかげで、既存のエージェントの性能は(以前のSoTAでは+11%絶対)、単純な模倣学習によってR2Rテストの分割で80%の単ラン成功率で大幅に向上できる。
論文 参考訳(メタデータ) (2023-07-28T16:03:28Z) - LargeST: A Benchmark Dataset for Large-Scale Traffic Forecasting [65.71129509623587]
道路交通予測はスマートシティのイニシアチブにおいて重要な役割を担い、ディープラーニングの力によって大きな進歩を遂げている。
しかし、現在の公開データセットで達成される有望な結果は、現実的なシナリオには適用できないかもしれない。
カリフォルニアで合計8,600のセンサーと5年間の時間カバレッジを含む、LargeSTベンチマークデータセットを紹介します。
論文 参考訳(メタデータ) (2023-06-14T05:48:36Z) - Expanding Small-Scale Datasets with Guided Imagination [92.5276783917845]
データセット拡張は、新しいラベル付きサンプルを自動生成することによって、使用可能な小さなデータセットを拡張することを目的とした、新しいタスクである。
GIFは、先行モデルの意味論的意味のある空間において、シードデータの潜伏した特徴を最適化することにより、データイマジネーションを行う。
GIF-SDは、SDによる非ガイド展開よりも、自然画像データセットのモデル精度が13.5%高い。
論文 参考訳(メタデータ) (2022-11-25T09:38:22Z) - LaMAR: Benchmarking Localization and Mapping for Augmented Reality [80.23361950062302]
異種ARデバイスでキャプチャされたリアルな軌跡とセンサストリームを共登録する,包括的キャプチャとGTパイプラインを備えた新しいベンチマークであるLaMARを紹介する。
私たちは、ヘッドマウントとハンドヘルドARデバイスで記録された多様な大規模シーンのベンチマークデータセットを公開します。
論文 参考訳(メタデータ) (2022-10-19T17:58:17Z) - Highly Accurate Dichotomous Image Segmentation [139.79513044546]
Dichotomous Image segmentation (DIS)と呼ばれる新しいタスクは、自然画像から高度に正確な物体を抽出することを目的としている。
私たちは、5,470の高解像度画像(例えば、2K、4K以上の画像)を含む最初の大規模データセットdis5Kを収集します。
また、Disdisモデルトレーニングのための特徴レベルとマスクレベルの両方のガイダンスを用いて、単純な中間監視ベースライン(IS-Net)を導入する。
論文 参考訳(メタデータ) (2022-03-06T20:09:19Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - FAIR1M: A Benchmark Dataset for Fine-grained Object Recognition in
High-Resolution Remote Sensing Imagery [21.9319970004788]
我々は,高分解能リモートセンシング画像において,100万以上のインスタンスと15,000以上の画像を含む新しいベンチマークデータセットを提案する。
FAIR1Mデータセットのすべてのオブジェクトは、指向境界ボックスによって5つのカテゴリと37のサブカテゴリに関してアノテートされます。
論文 参考訳(メタデータ) (2021-03-09T17:20:15Z) - Automatic Target Recognition on Synthetic Aperture Radar Imagery: A
Survey [0.0]
本稿では,SAR ATRアーキテクチャの分類法と,標準および拡張された運用条件下でのそれぞれの手法の長所と短所の比較を行う。
MSTARは標準的なSAR ATRベンチマークデータセットであるにもかかわらず、弱点を強調し、今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2020-07-04T14:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。