論文の概要: RSCC: A Large-Scale Remote Sensing Change Caption Dataset for Disaster Events
- arxiv url: http://arxiv.org/abs/2509.01907v2
- Date: Tue, 09 Sep 2025 01:10:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 12:33:22.792902
- Title: RSCC: A Large-Scale Remote Sensing Change Caption Dataset for Disaster Events
- Title(参考訳): RSCC - 災害イベントのための大規模リモートセンシング・チェンジ・キャプション・データセット
- Authors: Zhenyuan Chen, Chenxi Wang, Ningyu Zhang, Feng Zhang,
- Abstract要約: 本稿では,62,315個の前/後イメージペアからなる大規模ベンチマークであるRemote Sensing Change Captionデータセットを紹介する。
リモートセンシングデータの時間的・意味的な分割をブリッジすることにより、RSCCは災害対応の両時間的理解のための視覚言語モデルの堅牢なトレーニングと評価を可能にする。
結果は、RSCCの詳細な災害関連分析を促進する能力を強調し、リモートセンシングにおけるより正確で解釈可能でスケーラブルな視覚言語アプリケーションへの道を開いた。
- 参考スコア(独自算出の注目度): 22.94908378058109
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remote sensing is critical for disaster monitoring, yet existing datasets lack temporal image pairs and detailed textual annotations. While single-snapshot imagery dominates current resources, it fails to capture dynamic disaster impacts over time. To address this gap, we introduce the Remote Sensing Change Caption (RSCC) dataset, a large-scale benchmark comprising 62,315 pre-/post-disaster image pairs (spanning earthquakes, floods, wildfires, and more) paired with rich, human-like change captions. By bridging the temporal and semantic divide in remote sensing data, RSCC enables robust training and evaluation of vision-language models for disaster-aware bi-temporal understanding. Our results highlight RSCC's ability to facilitate detailed disaster-related analysis, paving the way for more accurate, interpretable, and scalable vision-language applications in remote sensing. Code and dataset are available at https://github.com/Bili-Sakura/RSCC.
- Abstract(参考訳): リモートセンシングは災害監視には不可欠だが、既存のデータセットには時間的イメージペアと詳細なテキストアノテーションがない。
シングルスナップショット画像は現在のリソースを支配しているが、時間とともに動的災害の影響を捉えない。
このギャップに対処するため、我々は62,315枚のプレ/ディスアスター画像ペア(スパンニング地震、洪水、山火事など)とリッチで人間的な変化キャプションを組み合わせた大規模なベンチマークであるRSCCデータセットを紹介した。
リモートセンシングデータの時間的・意味的な分割をブリッジすることにより、RSCCは災害対応の両時間的理解のための視覚言語モデルの堅牢なトレーニングと評価を可能にする。
以上の結果から,RSCCの詳細な災害関連分析を容易にする能力を強調し,リモートセンシングにおけるより正確で解釈可能な,スケーラブルな視覚言語アプリケーションへの道を開いた。
コードとデータセットはhttps://github.com/Bili-Sakura/RSCCで入手できる。
関連論文リスト
- A Deep Learning framework for building damage assessment using VHR SAR and geospatial data: demonstration on the 2023 Turkiye Earthquake [1.6070833439280312]
災害直後の被害の特定は緊急対応・復旧の指導に不可欠である。
超高分解能(VHR)合成開口レーダ(SAR)画像を用いた建物損傷検出のための新しい多モードディープラーニング(DL)フレームワークを提案する。
SAR画像パッチ、OpenStreetMap(OSM)構築フットプリント、デジタル表面モデル(DSM)データ、グローバル地震モデル(GEM)の構造と露出特性を統合する。
その結果,地理空間的特徴を取り入れることで,これまで見られなかった領域に対する検出性能と一般化性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-06-27T15:49:58Z) - Towards a multimodal framework for remote sensing image change retrieval and captioning [3.3488510654648453]
本稿では,両時間RS画像ペアのための新しい基礎モデルを提案する。
コントラストエンコーダとキャプションデコーダを共同でトレーニングすることにより、両時間的変化検出の文脈でテキスト画像検索機能を付加する。
論文 参考訳(メタデータ) (2024-06-19T10:30:56Z) - SwiMDiff: Scene-wide Matching Contrastive Learning with Diffusion
Constraint for Remote Sensing Image [21.596874679058327]
SwiMDiffは、リモートセンシング画像のための新しい自己教師付き事前トレーニングフレームワークである。
ラベルを再分類し、同じシーンからのデータを偽陰性として認識する。
対照的学習(CL)と拡散モデルとをシームレスに統合する。
論文 参考訳(メタデータ) (2024-01-10T11:55:58Z) - Typhoon Intensity Prediction with Vision Transformer [51.84456610977905]
台風強度を正確に予測するために「台風強度変換器(Tint)」を導入する。
Tintは、層ごとにグローバルな受容野を持つ自己認識機構を使用する。
公開されている台風ベンチマークの実験は、Tintの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-28T03:11:33Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - Seasonal Contrast: Unsupervised Pre-Training from Uncurated Remote
Sensing Data [64.40187171234838]
季節的コントラスト(SeCo)は、リモートセンシング表現のドメイン内事前トレーニングにラベルのないデータを活用するための効果的なパイプラインである。
SeCoは、転送学習を容易にし、再リモートセンシングアプリケーションの急速な進歩を可能にするために公開されます。
論文 参考訳(メタデータ) (2021-03-30T18:26:39Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z) - Improving Emergency Response during Hurricane Season using Computer
Vision [0.06882042556551608]
我々は,コンピュータビジョン(CV),内陸洪水予知,被害評価,データ可視化といった最新の技術を組み込んだ危機対応・管理のためのフレームワークを開発した。
我々のコンピュータビジョンモデルは、自然災害の前後で、宇宙と空中の画像を分析して、関連する特徴を検出する。
画像から水、道路、建物、植生などの特徴を識別するモデル群を設計した。
論文 参考訳(メタデータ) (2020-08-17T15:42:02Z) - Deep Learning-based Aerial Image Segmentation with Open Data for
Disaster Impact Assessment [11.355723874379317]
セグメンテーションニューラルネットワークを利用したフレームワークは、災害後のシナリオで影響のある地域やアクセス可能な道路を特定するために提案されている。
航空画像セグメンテーションにおけるImageNetの事前訓練の有効性について検討した。
インドネシアのパウル島を襲った2018年の津波のデータから、提案された枠組みの有効性が示された。
論文 参考訳(メタデータ) (2020-06-10T00:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。