論文の概要: Crown-CAM: Reliable Visual Explanations for Tree Crown Detection in
Aerial Images
- arxiv url: http://arxiv.org/abs/2211.13126v1
- Date: Wed, 23 Nov 2022 17:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:35:54.129024
- Title: Crown-CAM: Reliable Visual Explanations for Tree Crown Detection in
Aerial Images
- Title(参考訳): Crown-CAM:航空画像におけるツリークラウン検出のための信頼性の高いビジュアル説明
- Authors: Seyed Mojtaba Marvasti-Zadeh, Devin Goodsman, Nilanjan Ray, Nadir
Erbilgin
- Abstract要約: 地上画像における樹冠検出の困難かつ動的問題に対する信頼性の高い視覚的説明を生成するために,クラウンCAMを提案する。
ツリークラウンの微粒化と非コンテキスト背景抑圧を効率的に行う。
生成した視覚的説明の正確性と不正確性の両方を効果的に定量化できる2つのIoU(Intersection over Union)ベースのメトリクスが導入された。
- 参考スコア(独自算出の注目度): 7.682800716763564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual explanation of "black-box" models has enabled researchers and experts
in artificial intelligence (AI) to exploit the localization abilities of such
methods to a much greater extent. Despite most of the developed visual
explanation methods applied to single object classification problems, they are
not well-explored in the detection task, where the challenges may go beyond
simple coarse area-based discrimination. This is of particular importance when
a detector should face several objects with different scales from various
viewpoints or if the objects of interest are absent. In this paper, we propose
CrownCAM to generate reliable visual explanations for the challenging and
dynamic problem of tree crown detection in aerial images. It efficiently
provides fine-grain localization of tree crowns and non-contextual background
suppression for scenarios with highly dense forest trees in the presence of
potential distractors or scenes without tree crowns. Additionally, two
Intersection over Union (IoU)-based metrics are introduced that can effectively
quantify both the accuracy and inaccuracy of generated visual explanations with
respect to regions with or without tree crowns in the image. Empirical
evaluations demonstrate that the proposed Crown-CAM outperforms the Score-CAM,
Augmented ScoreCAM, and Eigen-CAM methods by an average IoU margin of 8.7, 5.3,
and 21.7 (and 3.3, 9.8, and 16.5) respectively in improving the accuracy (and
decreasing inaccuracy) of visual explanations on the challenging NEON tree
crown dataset.
- Abstract(参考訳): ブラックボックス」モデルの視覚的説明により、人工知能(AI)の専門家や研究者は、そのような手法の局所化能力をはるかに活用できるようになった。
単一対象の分類問題に適用された視覚的説明法の多くは開発されているが、これらの手法は検出タスクにおいて十分に探索されていない。
これは、検出器が様々な視点から異なるスケールの複数のオブジェクトに直面する場合や、関心のあるオブジェクトが存在しない場合、特に重要である。
本稿では,航空画像における樹冠検出の困難かつ動的な問題に対して,信頼性の高い視覚的説明を生成するクラウンCAMを提案する。
樹木の樹冠の微細な局所化と高密度の森林樹のシナリオに対する非テクスチュアルな背景抑制を効果的に提供し、樹木の樹冠のない潜在的な散逸者やシーンの存在下で実現している。
さらに,画像中の樹冠の有無にかかわらず,生成した視覚説明の正確性と不正確性を効果的に定量化できる,結合(iou)ベースの2つの指標が導入された。
実証的評価により,提案手法は平均iouマージン8.7,5.3,21.7 (および3.3,9.8,16.5) でスコアカム法,拡張スコアカム法,固有カム法を上回り,難解なネオンツリークラウンデータセットにおける視覚的説明の精度(精度)と不正確さを向上させた。
関連論文リスト
- Hierarchical Graph Interaction Transformer with Dynamic Token Clustering for Camouflaged Object Detection [57.883265488038134]
本稿では,HGINetと呼ばれる階層的なグラフ相互作用ネットワークを提案する。
このネットワークは、階層的トークン化機能間の効果的なグラフ相互作用を通じて、知覚不能なオブジェクトを発見することができる。
本実験は,既存の最先端手法と比較して,HGINetの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-08-27T12:53:25Z) - CAPE: CAM as a Probabilistic Ensemble for Enhanced DNN Interpretation [35.021331140484804]
クラスアクティベーションマップ(CAM)と最近の変種は、ディープニューラルネットワーク(DNN)決定過程を視覚的に説明する方法を提供する。
本稿では,画像領域のコントリビューションを統一的かつ確率的に有意義に評価できるCAPEを提案する。
論文 参考訳(メタデータ) (2024-04-03T01:13:05Z) - Benchmarking Individual Tree Mapping with Sub-meter Imagery [6.907098367807166]
我々は,任意の物理的環境において,個々の木マッピングに適した評価フレームワークを提案する。
異なるアプローチと深いアーキテクチャをレビューし比較し、セグメンテーションと検出のよい妥協であることを示す新しい手法を実験的に導入する。
論文 参考訳(メタデータ) (2023-11-14T08:21:36Z) - TreeFormer: a Semi-Supervised Transformer-based Framework for Tree
Counting from a Single High Resolution Image [6.789370732159176]
単一空中・衛星画像を用いた木密度推定と推定は,光度測定とリモートセンシングにおいて難しい課題である。
リモートセンシング画像に対する高価なツリーアノテーションを低減させる,ツリーカウントのための最初の半教師付きトランスフォーマーベースのフレームワークを提案する。
我々のモデルは、JiosuとYosemiteという2つのベンチマークツリーカウントデータセットと、彼ら自身が作成した新しいデータセットKCL-Londonで評価された。
論文 参考訳(メタデータ) (2023-07-12T12:19:36Z) - Decom--CAM: Tell Me What You See, In Details! Feature-Level Interpretation via Decomposition Class Activation Map [23.71680014689873]
クラスアクティベーションマップ(CAM)は、オブジェクトの位置をハイライトすることで深層モデルの予測を解釈するために広く使われている。
本稿では,分解クラス活性化マップ(Decom-CAM)と呼ばれる2段階の解釈可能性を提案する。
実験の結果,提案したDecom-CAMは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-27T14:33:01Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Individual Tree Detection and Crown Delineation with 3D Information from
Multi-view Satellite Images [5.185018253122575]
森林在庫管理において,個々の樹冠検出とクラウンデライン化(ITDD)が重要である。
マルチビュー衛星データから導出した直視・デジタル表面モデル(DSM)を用いたITDD手法を提案する。
3つの代表地域における手作業による植樹試験の結果,有望な結果が得られた。
論文 参考訳(メタデータ) (2021-07-01T16:28:43Z) - TS-CAM: Token Semantic Coupled Attention Map for Weakly Supervised
Object Localization [112.46381729542658]
弱監督オブジェクトローカリゼーション(WSOL)は、画像カテゴリラベルを与えられたときに難しい問題です。
長距離依存抽出のための視覚変換器における自己注意機構をフル活用するために,トークン意味結合注意マップ(TS-CAM)を導入する。
論文 参考訳(メタデータ) (2021-03-27T09:43:16Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z) - Linguistically Driven Graph Capsule Network for Visual Question
Reasoning [153.76012414126643]
我々は「言語的に駆動されるグラフカプセルネットワーク」と呼ばれる階層的構成推論モデルを提案する。
具体的には,各カプセルを最下層に結合させ,元の質問に1つの単語を埋め込んだ言語的埋め込みを視覚的証拠で橋渡しする。
CLEVRデータセット、CLEVR合成生成テスト、およびFinalQAデータセットの実験は、我々のエンドツーエンドモデルの有効性と構成一般化能力を示す。
論文 参考訳(メタデータ) (2020-03-23T03:34:25Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。