論文の概要: MMLSv2: A Multimodal Dataset for Martian Landslide Detection in Remote Sensing Imagery
- arxiv url: http://arxiv.org/abs/2602.08112v1
- Date: Sun, 08 Feb 2026 20:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.984722
- Title: MMLSv2: A Multimodal Dataset for Martian Landslide Detection in Remote Sensing Imagery
- Title(参考訳): MMLSv2:リモートセンシング画像における火星地すべり検出のためのマルチモーダルデータセット
- Authors: Sidike Paheding, Abel Reyes-Angulo, Leo Thomas Ramos, Angel D. Sappa, Rajaneesh A., Hiral P. B., Sajin Kumar K. S., Thomas Oommen,
- Abstract要約: MMLSv2は火星表面における地すべりのセグメンテーションのためのデータセットである。
トレーニング、バリデーション、テストスプリットに分散した664のイメージで構成されている。
- 参考スコア(独自算出の注目度): 4.646901578810681
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MMLSv2, a dataset for landslide segmentation on Martian surfaces. MMLSv2 consists of multimodal imagery with seven bands: RGB, digital elevation model, slope, thermal inertia, and grayscale channels. MMLSv2 comprises 664 images distributed across training, validation, and test splits. In addition, an isolated test set of 276 images from a geographically disjoint region from the base dataset is released to evaluate spatial generalization. Experiments conducted with multiple segmentation models show that the dataset supports stable training and achieves competitive performance, while still posing challenges in fragmented, elongated, and small-scale landslide regions. Evaluation on the isolated test set leads to a noticeable performance drop, indicating increased difficulty and highlighting its value for assessing model robustness and generalization beyond standard in-distribution settings. Dataset will be available at: https://github.com/MAIN-Lab/MMLS_v2
- Abstract(参考訳): 火星表面における地すべりのセグメンテーションのためのデータセットMMLSv2を提案する。
MMLSv2は、RGB、デジタル標高モデル、斜面、熱慣性、グレースケールチャンネルの7つのバンドからなるマルチモーダル画像で構成されている。
MMLSv2はトレーニング、検証、テストスプリットに分散した664のイメージで構成されている。
さらに、基地データセットから地理的に不連続な領域からの276個の画像の分離されたテストセットを解放し、空間一般化を評価する。
複数のセグメンテーションモデルを用いて行った実験は、データセットが安定したトレーニングをサポートし、競争性能を達成する一方で、断片化、伸長、小規模の地すべり地帯で課題を提起していることを示している。
分離されたテストセットの評価は、パフォーマンス低下の顕著な原因となり、複雑さが増し、モデルロバスト性の評価と標準配布設定を超える一般化の価値が強調される。
Dataset は https://github.com/MAIN-Lab/MMLS_v2
関連論文リスト
- MCTED: A Machine-Learning-Ready Dataset for Digital Elevation Model Generation From Mars Imagery [1.7499351967216341]
この研究は、火星のデジタル標高モデル予測タスクのための新しいデータセットを提示し、MCTEDと呼ばれる機械学習アプリケーションに備える。
データセットは、高解像度の火星オルソニメージとDEMペアを処理するように設計された包括的パイプラインを使用して、Day et alから生成された。
火星探査機マーズ・リコネッサンス・オービター(Mars Reconnaissance Orbiter)がCTX装置を用いて収集したデータで、火星の表面を包括的にカバーしている。
論文 参考訳(メタデータ) (2025-09-09T13:14:49Z) - MMS-VPR: Multimodal Street-Level Visual Place Recognition Dataset and Benchmark [1.858700200692012]
MMS-VPRは、歩行者のみの複雑な環境でストリートレベルの場所認識のための大規模なマルチモーダルデータセットである。
データセットは78,575枚の注釈付き画像と2,512本のビデオクリップからなり、中国・成都にある70,800ドルの屋外商業地区で207箇所で撮影された。
論文 参考訳(メタデータ) (2025-05-18T06:21:13Z) - Migician: Revealing the Magic of Free-Form Multi-Image Grounding in Multimodal Large Language Models [79.59567114769513]
複数の画像に対して自由かつ正確なグラウンド化を行うことができる最初のマルチイメージグラウンドモデルであるMigicianを紹介する。
我々のモデルは、より優れたマルチイメージグラウンド機能を実現し、最高のMLLMを24.94%上回り、さらに大きな70Bモデルを超えた。
論文 参考訳(メタデータ) (2025-01-10T07:56:23Z) - Plant detection from ultra high resolution remote sensing images: A Semantic Segmentation approach based on fuzzy loss [2.6489824612123716]
超高解像度(UHR)リモートセンシング画像から植物種を識別する課題に取り組む。
我々のアプローチは、ミリレベルの空間分解能を特徴とするRGBリモートセンシングデータセットの導入である。
UHRデータセットと公開データセットの両方で得られた最初の実験結果が提示され、提案手法の妥当性が示された。
論文 参考訳(メタデータ) (2024-08-31T17:40:17Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - GAMUS: A Geometry-aware Multi-modal Semantic Segmentation Benchmark for
Remote Sensing Data [27.63411386396492]
本稿では,RGB-Height(RGB-H)データに基づくマルチモーダルセマンティックセマンティックセマンティクスのための新しいベンチマークデータセットを提案する。
提案するベンチマークは,1)共登録RGBとnDSMペアと画素単位のセマンティックラベルを含む大規模データセットと,2)リモートセンシングデータに基づく畳み込みとトランスフォーマーベースのネットワークのための既存のマルチモーダル融合戦略の包括的評価と解析からなる。
論文 参考訳(メタデータ) (2023-05-24T09:03:18Z) - MDMMT: Multidomain Multimodal Transformer for Video Retrieval [63.872634680339644]
MSRVTTおよびLSMDCベンチマークのテキストからビデオ検索タスクに新しい最新技術を紹介します。
異なるデータセットでのトレーニングは、互いにテスト結果を改善することができることを示す。
論文 参考訳(メタデータ) (2021-03-19T09:16:39Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。