論文の概要: Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty
- arxiv url: http://arxiv.org/abs/2402.05045v1
- Date: Wed, 7 Feb 2024 17:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:14:13.508086
- Title: Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty
- Title(参考訳): ラベル不確かさを伴うリモートセンシングデータに対する高効率マルチリゾリューション融合
- Authors: Hersh Vakharia and Xiaoxiao Du
- Abstract要約: 本稿では,画素レベルのトレーニングラベルを必要とせず,マルチモーダル・マルチレゾリューションリモートセンサデータを融合する新しい手法を提案する。
探索空間を削減し,MIMRFフレームワークの効率を大幅に改善する二元ファジィ測度に基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.7832189413179361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal sensor data fusion takes advantage of complementary or
reinforcing information from each sensor and can boost overall performance in
applications such as scene classification and target detection. This paper
presents a new method for fusing multi-modal and multi-resolution remote sensor
data without requiring pixel-level training labels, which can be difficult to
obtain. Previously, we developed a Multiple Instance Multi-Resolution Fusion
(MIMRF) framework that addresses label uncertainty for fusion, but it can be
slow to train due to the large search space for the fuzzy measures used to
integrate sensor data sources. We propose a new method based on binary fuzzy
measures, which reduces the search space and significantly improves the
efficiency of the MIMRF framework. We present experimental results on synthetic
data and a real-world remote sensing detection task and show that the proposed
MIMRF-BFM algorithm can effectively and efficiently perform multi-resolution
fusion given remote sensing data with uncertainty.
- Abstract(参考訳): マルチモーダルセンサデータ融合は,各センサからの情報を補完あるいは強化することにより,シーン分類やターゲット検出といったアプリケーション全体のパフォーマンスを向上させる。
本稿では,画素レベルのトレーニングラベルを必要とすることなく,マルチモーダル・マルチレゾリューションのリモートセンサデータを融合させる新しい手法を提案する。
これまで我々は,マルチインスタンスマルチレゾリューション・フュージョン(mimrf)フレームワークを開発してきたが,センサデータソースの統合に使用されるファジィ測度の探索スペースが大きいため,学習が遅くなる可能性がある。
本研究では,検索スペースを削減し,mimrfフレームワークの効率を大幅に向上させる,二元ファジィ測度に基づく新しい手法を提案する。
本研究では, 合成データと実世界のリモートセンシング検出タスクに関する実験結果を示し, 提案するmimrf-bfmアルゴリズムが, 不確かさのあるリモートセンシングデータに対して, 効果的かつ効率的にマルチレゾリューション融合を行うことができることを示す。
関連論文リスト
- RemoteDet-Mamba: A Hybrid Mamba-CNN Network for Multi-modal Object Detection in Remote Sensing Images [13.98477009749389]
我々は,RemoteDet-Mambaと呼ばれる,四方向選択的走査型融合方式を用いたマルチモーダルリモートセンシングネットワークを提案する。
RemoteDet-Mambaは、単一モードのローカル機能の学習とパッチレベルのグローバル機能の統合を同時に促進する。
DroneVehicleデータセットの実験結果は、RemoteDet-Mambaの有効性を示している。
論文 参考訳(メタデータ) (2024-10-17T13:20:20Z) - Guided Masked Self-Distillation Modeling for Distributed Multimedia Sensor Event Analysis [27.780058825326012]
本稿では,センサ間関係モデリングのためのガイドメイドsELf-Distillation Modeling (Guided-MELD)を提案する。
Guided-MELDは、断片化された、または冗長なターゲットイベント情報を効果的に蒸留できるように設計されている。
論文 参考訳(メタデータ) (2024-04-12T06:23:48Z) - Fus-MAE: A cross-attention-based data fusion approach for Masked
Autoencoders in remote sensing [5.990692497580643]
Fus-MAEは、マスク付きオートエンコーダに基づく自己教師型学習フレームワークである。
実験により,Fus-MAEは,SAR-光データ融合に適したコントラスト学習戦略と効果的に競合できることが示された。
論文 参考訳(メタデータ) (2024-01-05T11:36:21Z) - Log-Likelihood Score Level Fusion for Improved Cross-Sensor Smartphone
Periocular Recognition [52.15994166413364]
我々は、複数のコンパレータを融合させて、異なるスマートフォンの画像を比較する際に、眼周囲の性能を改善する。
我々は線形ロジスティック回帰に基づく確率的融合フレームワークを使用し、融合したスコアはログライクな比率になる傾向にある。
我々のフレームワークは、同じセンサとクロスセンサーのスコア分布が整列され、共通の確率領域にマッピングされるため、異なるデバイスからの信号を処理するためのエレガントでシンプルなソリューションも提供します。
論文 参考訳(メタデータ) (2023-11-02T13:43:44Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。