論文の概要: A Comparative Assessment of Multi-view fusion learning for Crop
Classification
- arxiv url: http://arxiv.org/abs/2308.05407v1
- Date: Thu, 10 Aug 2023 08:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:17:59.268948
- Title: A Comparative Assessment of Multi-view fusion learning for Crop
Classification
- Title(参考訳): 作物分類のための多視点融合学習の比較評価
- Authors: Francisco Mena, Diego Arenas, Marlon Nuske, Andreas Dengel
- Abstract要約: この研究は、CropHarvestデータセットにおける作物分類のための異なる融合戦略を評価する。
本稿では,3つの異なるデータセットに対する多視点融合法の比較を行い,テスト領域によって異なる手法が最高の性能を得ることを示す。
- 参考スコア(独自算出の注目度): 3.883984493622102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With a rapidly increasing amount and diversity of remote sensing (RS) data
sources, there is a strong need for multi-view learning modeling. This is a
complex task when considering the differences in resolution, magnitude, and
noise of RS data. The typical approach for merging multiple RS sources has been
input-level fusion, but other - more advanced - fusion strategies may
outperform this traditional approach. This work assesses different fusion
strategies for crop classification in the CropHarvest dataset. The fusion
methods proposed in this work outperform models based on individual views and
previous fusion methods. We do not find one single fusion method that
consistently outperforms all other approaches. Instead, we present a comparison
of multi-view fusion methods for three different datasets and show that,
depending on the test region, different methods obtain the best performance.
Despite this, we suggest a preliminary criterion for the selection of fusion
methods.
- Abstract(参考訳): リモートセンシング(RS)データソースの量と多様性が急速に増加し,マルチビュー学習モデルの必要性が強くなっている。
これはRSデータの解像度、大きさ、ノイズの違いを考慮すると複雑なタスクである。
複数のRSソースをマージする典型的なアプローチは入力レベル融合であるが、他のより高度な融合戦略は従来のアプローチよりも優れている。
本研究は,cropharvestデータセットにおける作物分類のための異なる融合戦略を評価する。
本研究で提案する融合法は,個々のビューと過去の融合法に基づくモデルより優れている。
他の全てのアプローチより一貫して優れている単一の融合法は見つからない。
その代わり、3つの異なるデータセットに対する多視点融合法の比較を行い、テスト領域によって異なる手法が最高の性能を得ることを示す。
それにもかかわらず、我々は融合法の選択のための予備的基準を提案する。
関連論文リスト
- How Intermodal Interaction Affects the Performance of Deep Multimodal Fusion for Mixed-Type Time Series [3.6958071416494414]
MTTS(Mixed-type Time Series)は、医療、金融、環境モニタリング、ソーシャルメディアなど、多くの分野で一般的なバイモーダルデータである。
マルチモーダル融合による両モードの統合はMTTSの処理において有望なアプローチである。
MTTS予測のための深層多モード融合手法の総合評価を行った。
論文 参考訳(メタデータ) (2024-06-21T12:26:48Z) - FusionBench: A Comprehensive Benchmark of Deep Model Fusion [78.80920533793595]
ディープモデル融合(Deep Model fusion)とは、複数のディープニューラルネットワークの予測やパラメータを単一のモデルに統合する手法である。
FusionBenchは、ディープモデル融合に特化した最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-05T13:54:28Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Central Similarity Multi-View Hashing for Multimedia Retrieval [14.766486538338498]
本稿では,CSMVH(Central similarity Multi-View Hashing)法を提案する。
MS COCO と NUS-WIDE では,提案したCSMVH は最先端の手法よりも大きなマージンで性能が向上する。
論文 参考訳(メタデータ) (2023-08-26T05:43:29Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - Attention Bottlenecks for Multimodal Fusion [90.75885715478054]
機械知覚モデルは典型的にはモダリティに特化しており、単調なベンチマークのために最適化されている。
複数の層でのモジュラリティ融合に「融合」を用いる新しいトランスフォーマーアーキテクチャを導入する。
我々は、徹底的なアブレーション研究を行い、複数のオーディオ視覚分類ベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-30T22:44:12Z) - Multimodal Object Detection via Bayesian Fusion [59.31437166291557]
我々は、RGBとサーマルカメラでマルチモーダルオブジェクト検出を研究します。後者は照明不良下ではるかに強力なオブジェクトシグネチャを提供することができます。
我々の重要な貢献は、異なるモードのボックス検出を融合する非学習遅延融合法である。
このアプローチは、整列(KAIST)と非整列(FLIR)のマルチモーダルセンサーデータを含むベンチマークに適用されます。
論文 参考訳(メタデータ) (2021-04-07T04:03:20Z) - Subspace-Based Feature Fusion From Hyperspectral And Multispectral Image
For Land Cover Classification [17.705966155216945]
画素分類のためのハイパースペクトル(HS)とマルチスペクトル(MS)画像からの特徴融合法を提案する。
提案手法は,まず形状プロファイルを用いてMS画像から空間的特徴を抽出する。
特徴融合問題を効率的に解くために、交互最適化(AO)と乗算器の交互方向法(ADMM)を組み合わせたアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-02-22T17:59:18Z) - Memory based fusion for multi-modal deep learning [39.29589204750581]
メモリベースのAttentive Fusionレイヤは、現在の機能と長期依存の両方をデータに組み込むことで、モードをフューズする。
データに現在の特徴と長期的依存関係の両方を組み込むことで、モデムを融合するメモリベースのアテンティブフュージョン層を新たに提案する。
論文 参考訳(メタデータ) (2020-07-16T02:05:54Z) - VMLoc: Variational Fusion For Learning-Based Multimodal Camera
Localization [46.607930208613574]
本稿では,センサの入力を共通の潜在空間に融合させる,VMLocと呼ばれるエンドツーエンドフレームワークを提案する。
バニラ変分オートエンコーダの目的関数を直接適用する従来のマルチモーダル変分法とは異なり、カメラのローカライゼーションを正確に推定する方法を示す。
論文 参考訳(メタデータ) (2020-03-12T14:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。