論文の概要: PAHD: Perception-Action based Human Decision Making using Explainable
Graph Neural Networks on SAR Images
- arxiv url: http://arxiv.org/abs/2401.02687v1
- Date: Fri, 5 Jan 2024 07:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:40:51.935325
- Title: PAHD: Perception-Action based Human Decision Making using Explainable
Graph Neural Networks on SAR Images
- Title(参考訳): PAHD:SAR画像上の説明可能なグラフニューラルネットワークを用いた知覚行動に基づく人間の意思決定
- Authors: Sasindu Wijeratne, Bingyi Zhang, Rajgopal Kannan, Viktor Prasanna,
Carl Busart
- Abstract要約: 我々は,最終分類クラスを提供し,詳細な情報を出力するGNNベースのATRフレームワークを提案する。
我々のフレームワークは、MSTARデータセットで評価した場合、全体の99.2%の精度を達成し、従来の最先端のGNN手法よりも改善した。
- 参考スコア(独自算出の注目度): 3.2507129535290926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic Aperture Radar (SAR) images are commonly utilized in military
applications for automatic target recognition (ATR). Machine learning (ML)
methods, such as Convolutional Neural Networks (CNN) and Graph Neural Networks
(GNN), are frequently used to identify ground-based objects, including battle
tanks, personnel carriers, and missile launchers. Determining the vehicle
class, such as the BRDM2 tank, BMP2 tank, BTR60 tank, and BTR70 tank, is
crucial, as it can help determine whether the target object is an ally or an
enemy. While the ML algorithm provides feedback on the recognized target, the
final decision is left to the commanding officers. Therefore, providing
detailed information alongside the identified target can significantly impact
their actions. This detailed information includes the SAR image features that
contributed to the classification, the classification confidence, and the
probability of the identified object being classified as a different object
type or class. We propose a GNN-based ATR framework that provides the final
classified class and outputs the detailed information mentioned above. This is
the first study to provide a detailed analysis of the classification class,
making final decisions more straightforward. Moreover, our GNN framework
achieves an overall accuracy of 99.2\% when evaluated on the MSTAR dataset,
improving over previous state-of-the-art GNN methods.
- Abstract(参考訳): 合成開口レーダ(SAR)画像は、自動目標認識(ATR)のための軍事用途で一般的に使用される。
畳み込みニューラルネットワーク(CNN)やグラフニューラルネットワーク(GNN)のような機械学習(ML)の手法は、戦闘戦車、人力キャリア、ミサイルランチャーなど、地上の物体を識別するために頻繁に用いられる。
BRDM2タンク、BMP2タンク、BTR60タンク、BTR70タンクなどの車両のクラスを決定することは、対象物が味方であるか敵であるかを判断するのに役立つため重要である。
MLアルゴリズムは認識された目標に対するフィードバックを提供するが、最終的な決定は指揮官に委ねられる。
したがって、特定されたターゲットと一緒に詳細な情報を提供することは、彼らの行動に大きな影響を与える。
この詳細情報には、分類、分類信頼度、識別対象が異なるオブジェクトタイプまたはクラスに分類される確率に寄与するSAR画像の特徴が含まれている。
本稿では,最終的な分類クラスを提供し,上述の詳細な情報を出力するgnnベースのatrフレームワークを提案する。
これは分類クラスの詳細な分析を提供し、最終的な決定をより簡単にする最初の研究である。
さらに、我々のGNNフレームワークは、MSTARデータセットで評価した場合、全体の99.2\%の精度を達成し、従来の最先端のGNN手法よりも改善した。
関連論文リスト
- Benchmarking Deep Learning Classifiers for SAR Automatic Target
Recognition [7.858656052565242]
本稿では,複数のSARデータセットを用いたSAR ATRの先進的な深層学習モデルを総合的にベンチマークする。
推論スループットと解析性能の観点から,分類精度のランタイム性能に関する5つの分類器の評価と比較を行った。
SAR ATRの領域では、すべてのモデルルールが疑わしいのです。
論文 参考訳(メタデータ) (2023-12-12T02:20:39Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Conditioning Covert Geo-Location (CGL) Detection on Semantic Class
Information [5.660207256468971]
サハらによってCCGL(Covert Geo-Location)検出と呼ばれる潜在的な隠蔽物を特定するタスクが提案された。
セマンティッククラス情報を利用する試みは行われなかった。
本稿では,2つの目標を達成するためのマルチタスク学習に基づくアプローチを提案する。i) 意味クラス情報を持つ特徴の抽出;i) 共通エンコーダの堅牢なトレーニング。
論文 参考訳(メタデータ) (2022-11-27T07:21:59Z) - Enhancing Object Detection for Autonomous Driving by Optimizing Anchor
Generation and Addressing Class Imbalance [0.0]
本研究では,より高速なR-CNNに基づく拡張型2次元物体検出器を提案する。
より高速なr-cnnに対する修正は計算コストを増加させず、他のアンカーベースの検出フレームワークを最適化するために容易に拡張できる。
論文 参考訳(メタデータ) (2021-04-08T16:58:31Z) - SOON: Scenario Oriented Object Navigation with Graph-based Exploration [102.74649829684617]
人間のように3Dエンボディ環境のどこからでも言語ガイドされたターゲットに向かって移動する能力は、インテリジェントロボットの「聖杯」目標の1つです。
ほとんどのビジュアルナビゲーションベンチマークは、ステップバイステップの詳細な命令セットに導かれ、固定された出発点から目標に向かって移動することに焦点を当てている。
このアプローチは、人間だけが物体とその周囲がどのように見えるかを説明する現実世界の問題から逸脱し、ロボットにどこからでも航行を依頼する。
論文 参考訳(メタデータ) (2021-03-31T15:01:04Z) - PeaceGAN: A GAN-based Multi-Task Learning Method for SAR Target Image
Generation with a Pose Estimator and an Auxiliary Classifier [50.17500790309477]
SARターゲット画像生成のための新しいGANベースのマルチタスク学習(MTL)手法であるPeaceGANを提案する。
PeaceGANはポーズ角とターゲットクラス情報の両方を使用し、目的のポーズ角で所望のターゲットクラスのSARターゲット画像を作成することができる。
論文 参考訳(メタデータ) (2021-03-29T10:03:09Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Detection and Classification of Astronomical Targets with Deep Neural
Networks in Wide Field Small Aperture Telescopes [9.035184185881777]
深層ニューラルネットワークに基づく天文目標検出・分類フレームワークを提案する。
我々のフレームワークは、Faster R-CNNの概念を採用し、改良されたResnet-50をバックボーンネットワークとして使用している。
我々は,Nvidia Jetson Xavierのような組み込みデバイスに我々のフレームワークをインストールし,リアルタイムな天文学的目標検出と分類能力を実現することを提案する。
論文 参考訳(メタデータ) (2020-02-21T10:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。