論文の概要: A Comparative Assessment of Multi-view fusion learning for Crop
Classification
- arxiv url: http://arxiv.org/abs/2308.05407v1
- Date: Thu, 10 Aug 2023 08:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 13:17:59.268948
- Title: A Comparative Assessment of Multi-view fusion learning for Crop
Classification
- Title(参考訳): 作物分類のための多視点融合学習の比較評価
- Authors: Francisco Mena, Diego Arenas, Marlon Nuske, Andreas Dengel
- Abstract要約: この研究は、CropHarvestデータセットにおける作物分類のための異なる融合戦略を評価する。
本稿では,3つの異なるデータセットに対する多視点融合法の比較を行い,テスト領域によって異なる手法が最高の性能を得ることを示す。
- 参考スコア(独自算出の注目度): 3.883984493622102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With a rapidly increasing amount and diversity of remote sensing (RS) data
sources, there is a strong need for multi-view learning modeling. This is a
complex task when considering the differences in resolution, magnitude, and
noise of RS data. The typical approach for merging multiple RS sources has been
input-level fusion, but other - more advanced - fusion strategies may
outperform this traditional approach. This work assesses different fusion
strategies for crop classification in the CropHarvest dataset. The fusion
methods proposed in this work outperform models based on individual views and
previous fusion methods. We do not find one single fusion method that
consistently outperforms all other approaches. Instead, we present a comparison
of multi-view fusion methods for three different datasets and show that,
depending on the test region, different methods obtain the best performance.
Despite this, we suggest a preliminary criterion for the selection of fusion
methods.
- Abstract(参考訳): リモートセンシング(RS)データソースの量と多様性が急速に増加し,マルチビュー学習モデルの必要性が強くなっている。
これはRSデータの解像度、大きさ、ノイズの違いを考慮すると複雑なタスクである。
複数のRSソースをマージする典型的なアプローチは入力レベル融合であるが、他のより高度な融合戦略は従来のアプローチよりも優れている。
本研究は,cropharvestデータセットにおける作物分類のための異なる融合戦略を評価する。
本研究で提案する融合法は,個々のビューと過去の融合法に基づくモデルより優れている。
他の全てのアプローチより一貫して優れている単一の融合法は見つからない。
その代わり、3つの異なるデータセットに対する多視点融合法の比較を行い、テスト領域によって異なる手法が最高の性能を得ることを示す。
それにもかかわらず、我々は融合法の選択のための予備的基準を提案する。
関連論文リスト
- Rethinking Early-Fusion Strategies for Improved Multimodal Image Segmentation [7.757018983487103]
本稿では,早期融合戦略と,効率的なRGB-Tセマンティックセマンティックセマンティックセマンティクスのトレーニングのための簡易かつ効果的な特徴クラスタリングに基づく,新しいマルチモーダル融合ネットワーク(EFNet)を提案する。
提案手法の有効性を異なるデータセットで検証し,より低いパラメータと計算量で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-01-19T06:16:45Z) - FusionBench: A Comprehensive Benchmark of Deep Model Fusion [78.80920533793595]
ディープモデル融合(Deep Model fusion)とは、複数のディープニューラルネットワークの予測やパラメータを単一のモデルに統合する手法である。
FusionBenchは、ディープモデル融合に特化した最初の包括的なベンチマークである。
論文 参考訳(メタデータ) (2024-06-05T13:54:28Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Central Similarity Multi-View Hashing for Multimedia Retrieval [14.766486538338498]
本稿では,CSMVH(Central similarity Multi-View Hashing)法を提案する。
MS COCO と NUS-WIDE では,提案したCSMVH は最先端の手法よりも大きなマージンで性能が向上する。
論文 参考訳(メタデータ) (2023-08-26T05:43:29Z) - Deep Equilibrium Multimodal Fusion [88.04713412107947]
多重モーダル融合は、複数のモーダルに存在する相補的な情報を統合し、近年多くの注目を集めている。
本稿では,動的多モード核融合プロセスの固定点を求めることにより,多モード核融合に対する新しいDeep equilibrium (DEQ)法を提案する。
BRCA,MM-IMDB,CMU-MOSI,SUN RGB-D,VQA-v2の実験により,DEC融合の優位性が示された。
論文 参考訳(メタデータ) (2023-06-29T03:02:20Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - Attention Bottlenecks for Multimodal Fusion [90.75885715478054]
機械知覚モデルは典型的にはモダリティに特化しており、単調なベンチマークのために最適化されている。
複数の層でのモジュラリティ融合に「融合」を用いる新しいトランスフォーマーアーキテクチャを導入する。
我々は、徹底的なアブレーション研究を行い、複数のオーディオ視覚分類ベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-30T22:44:12Z) - Multimodal Object Detection via Bayesian Fusion [59.31437166291557]
我々は、RGBとサーマルカメラでマルチモーダルオブジェクト検出を研究します。後者は照明不良下ではるかに強力なオブジェクトシグネチャを提供することができます。
我々の重要な貢献は、異なるモードのボックス検出を融合する非学習遅延融合法である。
このアプローチは、整列(KAIST)と非整列(FLIR)のマルチモーダルセンサーデータを含むベンチマークに適用されます。
論文 参考訳(メタデータ) (2021-04-07T04:03:20Z) - Subspace-Based Feature Fusion From Hyperspectral And Multispectral Image
For Land Cover Classification [17.705966155216945]
画素分類のためのハイパースペクトル(HS)とマルチスペクトル(MS)画像からの特徴融合法を提案する。
提案手法は,まず形状プロファイルを用いてMS画像から空間的特徴を抽出する。
特徴融合問題を効率的に解くために、交互最適化(AO)と乗算器の交互方向法(ADMM)を組み合わせたアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-02-22T17:59:18Z) - Memory based fusion for multi-modal deep learning [39.29589204750581]
メモリベースのAttentive Fusionレイヤは、現在の機能と長期依存の両方をデータに組み込むことで、モードをフューズする。
データに現在の特徴と長期的依存関係の両方を組み込むことで、モデムを融合するメモリベースのアテンティブフュージョン層を新たに提案する。
論文 参考訳(メタデータ) (2020-07-16T02:05:54Z) - VMLoc: Variational Fusion For Learning-Based Multimodal Camera Localization [36.11674066519118]
本稿では,センサの入力を共通の潜在空間に融合させる,VMLocと呼ばれるエンドツーエンドフレームワークを提案する。
バニラ変分オートエンコーダの目的関数を直接適用する従来のマルチモーダル変分法とは異なり、カメラのローカライゼーションを正確に推定する方法を示す。
論文 参考訳(メタデータ) (2020-03-12T14:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。