論文の概要: Credible Remote Sensing Scene Classification Using Evidential Fusion on
Aerial-Ground Dual-view Images
- arxiv url: http://arxiv.org/abs/2301.00622v1
- Date: Mon, 2 Jan 2023 12:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:59:01.546204
- Title: Credible Remote Sensing Scene Classification Using Evidential Fusion on
Aerial-Ground Dual-view Images
- Title(参考訳): 空中デュアルビュー画像における証拠融合を用いたクレディブルリモートセンシングシーン分類
- Authors: Kun Zhao, Qian Gao, Siyuan Hao, Jie Sun, Lijian Zhou
- Abstract要約: マルチビュー(マルチソース、マルチモーダル、マルチパースペクティブなど)データはリモートセンシングタスクで頻繁に使用される。
データ品質の問題はさらに明確になり、マルチビューデータの潜在的なメリットが制限される。
深層学習は空中二視点リモートセンシングシーン分類の課題に導入される。
- 参考スコア(独自算出の注目度): 6.817740582240199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their ability to offer more comprehensive information than data from a
single view, multi-view (multi-source, multi-modal, multi-perspective, etc.)
data are being used more frequently in remote sensing tasks. However, as the
number of views grows, the issue of data quality becomes more apparent,
limiting the potential benefits of multi-view data. Although recent deep neural
network (DNN) based models can learn the weight of data adaptively, a lack of
research on explicitly quantifying the data quality of each view when fusing
them renders these models inexplicable, performing unsatisfactorily and
inflexible in downstream remote sensing tasks. To fill this gap, in this paper,
evidential deep learning is introduced to the task of aerial-ground dual-view
remote sensing scene classification to model the credibility of each view.
Specifically, the theory of evidence is used to calculate an uncertainty value
which describes the decision-making risk of each view. Based on this
uncertainty, a novel decision-level fusion strategy is proposed to ensure that
the view with lower risk obtains more weight, making the classification more
credible. On two well-known, publicly available datasets of aerial-ground
dual-view remote sensing images, the proposed approach achieves
state-of-the-art results, demonstrating its effectiveness. The code and
datasets of this article are available at the following address:
https://github.com/gaopiaoliang/Evidential.
- Abstract(参考訳): 単一のビューからのデータよりも包括的な情報を提供できるため、マルチビュー(マルチソース、マルチモーダル、マルチパースペクティブなど)データはリモートセンシングタスクでより頻繁に使用される。
しかし、ビューの数が増えるにつれて、データ品質の問題がより明らかになり、マルチビューデータの潜在的な利点が制限される。
最近のディープニューラルネットワーク(DNN)ベースのモデルでは、データの重みを適応的に学習することができるが、融合時に各ビューのデータ品質を明示的に定量化するための研究の欠如により、これらのモデルが説明不能になり、下流のリモートセンシングタスクでは不満足で柔軟性に欠ける。
このギャップを埋めるために, 各ビューの信頼性をモデル化するために, 地上2視点リモートセンシングシーン分類の課題に対して, 明らかな深層学習を導入する。
具体的には、各視点の意思決定リスクを記述する不確実性値を計算するために証拠理論を用いる。
この不確実性に基づいて、リスクの低い視点がより重みを得られることを保証するために、新たな意思決定レベルの融合戦略が提案されている。
航空地対地リモートセンシング画像の2つのよく知られた公開データセットで、提案されたアプローチは最先端の成果を達成し、その効果を示している。
この記事のコードとデータセットは以下のアドレスで利用可能である。
関連論文リスト
- Regularized Contrastive Partial Multi-view Outlier Detection [76.77036536484114]
RCPMOD(Regularized Contrastive partial Multi-view Outlier Detection)と呼ばれる新しい手法を提案する。
このフレームワークでは、コントラスト学習を利用して、ビュー一貫性のある情報を学び、一貫性の度合いでアウトレイラを識別する。
4つのベンチマークデータセットによる実験結果から,提案手法が最先端の競合より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-02T14:34:27Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Two-level Data Augmentation for Calibrated Multi-view Detection [51.5746691103591]
ビュー間のアライメントを保った新しいマルチビューデータ拡張パイプラインを導入する。
また,シーンレベルで直接適用された第2レベルの拡張を提案する。
単純なマルチビュー検出モデルと組み合わせることで、2レベル拡張パイプラインは既存のベースラインすべてより優れています。
論文 参考訳(メタデータ) (2022-10-19T17:55:13Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Facing the Void: Overcoming Missing Data in Multi-View Imagery [0.783788180051711]
本稿では,この問題に頑健な多視点画像分類のための新しい手法を提案する。
提案手法は,最先端の深層学習とメートル法学習に基づいて,他のアプリケーションやドメインに容易に適応し,活用することができる。
その結果,提案アルゴリズムは,最先端手法と比較して,多視点画像分類精度の向上を図っている。
論文 参考訳(メタデータ) (2022-05-21T13:21:27Z) - Uncertainty-Aware Multi-View Representation Learning [53.06828186507994]
動的不確実性認識ネットワーク(DUA-Nets)と呼ばれる新しい教師なし多視点学習手法を考案する。
生成視点から推定されるデータの不確実性により、複数の視点からの固有情報が統合され、ノイズのない表現が得られる。
本モデルでは, 広範囲な実験において優れた性能を示し, ノイズの多いデータに対するロバスト性を示す。
論文 参考訳(メタデータ) (2022-01-15T07:16:20Z) - Generative Partial Multi-View Clustering [133.36721417531734]
本稿では,不完全なマルチビュー問題に対処するため,GP-MVCと呼ばれる生成的部分的マルチビュークラスタリングモデルを提案する。
まず、マルチビューエンコーダネットワークをトレーニングして、一般的な低次元表現を学習し、次にクラスタリング層を使用して複数のビューをまたいだ一貫したクラスタ構造をキャプチャする。
第2に、他のビューが与える共有表現に基づいて、1つのビュー条件の欠落データを生成するために、ビュー固有の生成敵ネットワークを開発する。
論文 参考訳(メタデータ) (2020-03-29T17:48:27Z) - Learning Robust Representations via Multi-View Information Bottleneck [41.65544605954621]
元の定式化は、過剰な情報を識別するためにラベル付きデータを必要とする。
この機能は、同一のエンティティの2つのビューが提供されるが、ラベルが不明なマルチビューアントラクサ設定に拡張する。
理論的解析により、MIR-FlickrデータセットのSketchyデータセットとラベル限定バージョンで最先端の結果を生成する新しいマルチビューモデルが定義される。
論文 参考訳(メタデータ) (2020-02-17T16:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。