論文の概要: Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty
- arxiv url: http://arxiv.org/abs/2402.05045v1
- Date: Wed, 7 Feb 2024 17:34:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:14:13.508086
- Title: Efficient Multi-Resolution Fusion for Remote Sensing Data with Label
Uncertainty
- Title(参考訳): ラベル不確かさを伴うリモートセンシングデータに対する高効率マルチリゾリューション融合
- Authors: Hersh Vakharia and Xiaoxiao Du
- Abstract要約: 本稿では,画素レベルのトレーニングラベルを必要とせず,マルチモーダル・マルチレゾリューションリモートセンサデータを融合する新しい手法を提案する。
探索空間を削減し,MIMRFフレームワークの効率を大幅に改善する二元ファジィ測度に基づく新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.7832189413179361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal sensor data fusion takes advantage of complementary or
reinforcing information from each sensor and can boost overall performance in
applications such as scene classification and target detection. This paper
presents a new method for fusing multi-modal and multi-resolution remote sensor
data without requiring pixel-level training labels, which can be difficult to
obtain. Previously, we developed a Multiple Instance Multi-Resolution Fusion
(MIMRF) framework that addresses label uncertainty for fusion, but it can be
slow to train due to the large search space for the fuzzy measures used to
integrate sensor data sources. We propose a new method based on binary fuzzy
measures, which reduces the search space and significantly improves the
efficiency of the MIMRF framework. We present experimental results on synthetic
data and a real-world remote sensing detection task and show that the proposed
MIMRF-BFM algorithm can effectively and efficiently perform multi-resolution
fusion given remote sensing data with uncertainty.
- Abstract(参考訳): マルチモーダルセンサデータ融合は,各センサからの情報を補完あるいは強化することにより,シーン分類やターゲット検出といったアプリケーション全体のパフォーマンスを向上させる。
本稿では,画素レベルのトレーニングラベルを必要とすることなく,マルチモーダル・マルチレゾリューションのリモートセンサデータを融合させる新しい手法を提案する。
これまで我々は,マルチインスタンスマルチレゾリューション・フュージョン(mimrf)フレームワークを開発してきたが,センサデータソースの統合に使用されるファジィ測度の探索スペースが大きいため,学習が遅くなる可能性がある。
本研究では,検索スペースを削減し,mimrfフレームワークの効率を大幅に向上させる,二元ファジィ測度に基づく新しい手法を提案する。
本研究では, 合成データと実世界のリモートセンシング検出タスクに関する実験結果を示し, 提案するmimrf-bfmアルゴリズムが, 不確かさのあるリモートセンシングデータに対して, 効果的かつ効率的にマルチレゾリューション融合を行うことができることを示す。
関連論文リスト
- Fus-MAE: A cross-attention-based data fusion approach for Masked
Autoencoders in remote sensing [5.990692497580643]
Fus-MAEは、マスク付きオートエンコーダに基づく自己教師型学習フレームワークである。
実験により,Fus-MAEは,SAR-光データ融合に適したコントラスト学習戦略と効果的に競合できることが示された。
論文 参考訳(メタデータ) (2024-01-05T11:36:21Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - Log-Likelihood Score Level Fusion for Improved Cross-Sensor Smartphone
Periocular Recognition [52.15994166413364]
我々は、複数のコンパレータを融合させて、異なるスマートフォンの画像を比較する際に、眼周囲の性能を改善する。
我々は線形ロジスティック回帰に基づく確率的融合フレームワークを使用し、融合したスコアはログライクな比率になる傾向にある。
我々のフレームワークは、同じセンサとクロスセンサーのスコア分布が整列され、共通の確率領域にマッピングされるため、異なるデバイスからの信号を処理するためのエレガントでシンプルなソリューションも提供します。
論文 参考訳(メタデータ) (2023-11-02T13:43:44Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - Multi-Objective Bayesian Optimisation and Joint Inversion for Active
Sensor Fusion [22.04258832800079]
新しい測定値の割当にコストのかかる関数が与えられた場合,多目的最適化と逆問題のためのフレームワークを提案する。
本手法は2次元センサデータと3次元物理特性の多次元前方モデルとを共同で解くために考案された。
本研究では,2次元重力と磁気センサのデータに基づいて,新しいドリルコア測定をどこに配置するかを推奨する。
論文 参考訳(メタデータ) (2020-10-12T01:23:41Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。