論文の概要: RS-OOD: A Vision-Language Augmented Framework for Out-of-Distribution Detection in Remote Sensing
- arxiv url: http://arxiv.org/abs/2509.02273v1
- Date: Tue, 02 Sep 2025 12:48:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.02805
- Title: RS-OOD: A Vision-Language Augmented Framework for Out-of-Distribution Detection in Remote Sensing
- Title(参考訳): RS-OOD:リモートセンシングにおけるアウト・オブ・ディストリビューション検出のための視覚言語拡張フレームワーク
- Authors: Yingrui Ji, Jiansheng Chen, Jingbo Chen, Anzhi Yue, Chenhao Wang, Kai Li, Yao Zhu,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出はリモートセンシングアプリケーションにおいて重要な課題である。
我々は,リモートセンシング特有の視覚言語モデリングを活用して,ロバストな数ショットOOD検出を実現する新しいフレームワークRS-OODを提案する。
提案手法では,空間的特徴強調によるシーン識別の改善,デュアルプロンプトアライメント機構,信頼誘導型自己学習ループの3つの重要なイノベーションを紹介した。
- 参考スコア(独自算出の注目度): 28.210334310489987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) detection represents a critical challenge in remote sensing applications, where reliable identification of novel or anomalous patterns is essential for autonomous monitoring, disaster response, and environmental assessment. Despite remarkable progress in OOD detection for natural images, existing methods and benchmarks remain poorly suited to remote sensing imagery due to data scarcity, complex multi-scale scene structures, and pronounced distribution shifts. To this end, we propose RS-OOD, a novel framework that leverages remote sensing-specific vision-language modeling to enable robust few-shot OOD detection. Our approach introduces three key innovations: spatial feature enhancement that improved scene discrimination, a dual-prompt alignment mechanism that cross-verifies scene context against fine-grained semantics for spatial-semantic consistency, and a confidence-guided self-training loop that dynamically mines pseudo-labels to expand training data without manual annotation. RS-OOD consistently outperforms existing methods across multiple remote sensing benchmarks and enables efficient adaptation with minimal labeled data, demonstrating the critical value of spatial-semantic integration.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、遠隔センシングアプリケーションにおいて重要な課題であり、自律的な監視、災害対応、環境評価において、新しいパターンや異常パターンの信頼性の高い識別が不可欠である。
自然画像のOOD検出の顕著な進歩にもかかわらず、既存の手法とベンチマークはデータ不足、複雑なマルチスケールシーン構造、および顕著な分布シフトによるリモートセンシング画像には適していない。
そこで我々は,リモートセンシング特有の視覚言語モデリングを活用して,ロバストな数発のOOD検出を実現する新しいフレームワークRS-OODを提案する。
提案手法では,シーン識別を改善する空間的特徴強調,空間的セマンティック整合性のための微粒なセマンティクスに対してシーンコンテキストを相互に検証するデュアルプロンプトアライメント機構,疑似ラベルを動的にマイニングして手動のアノテーションを使わずにトレーニングデータを拡張する信頼誘導型自己学習ループ,の3つの重要なイノベーションを紹介した。
RS-OODは、複数のリモートセンシングベンチマークで既存の手法を一貫して上回り、最小限のラベル付きデータによる効率的な適応を可能にし、空間意味統合の臨界値を示す。
関連論文リスト
- RoHOI: Robustness Benchmark for Human-Object Interaction Detection [78.18946529195254]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - DiffRIS: Enhancing Referring Remote Sensing Image Segmentation with Pre-trained Text-to-Image Diffusion Models [9.109484087832058]
DiffRISは、RRSISタスクのための事前訓練されたテキスト-画像拡散モデルのセマンティック理解機能を利用する新しいフレームワークである。
我々のフレームワークは、文脈認識アダプタ(CP-adapter)とクロスモーダル推論デコーダ(PCMRD)の2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2025-06-23T02:38:56Z) - Adaptive Contextual Embedding for Robust Far-View Borehole Detection [2.206623168926072]
爆破作業では、遠視野画像から密集した小さなボアホールを正確に検出することが、運用上の安全性と効率の面で重要である。
指数移動平均(EMA)に基づく統計的更新から導出される一貫した埋め込み表現を明示的に活用することにより、既存のアーキテクチャ(例えば、YOLO)の上に構築する適応検出手法を提案する。
本手法では,(1)動的に更新された画像統計量を利用して照明やテクスチャの変動を頑健に処理する適応的拡張,(2)連続的かつ信頼性の高い特徴抽出を確実にするための埋め込み安定化,(3)空間コンテキストを利用した文脈改善による検出精度の向上,の3つの相乗的要素を紹介する。
論文 参考訳(メタデータ) (2025-05-08T07:25:42Z) - RUNA: Object-level Out-of-Distribution Detection via Regional Uncertainty Alignment of Multimodal Representations [33.971901643313856]
RUNAは、アウト・オブ・ディストリビューション(OOD)オブジェクトを検出するための新しいフレームワークである。
これは、OODオブジェクトとIDを効果的に区別するために、地域不確実性アライメント機構を使用する。
実験の結果,RUNAはオブジェクトレベルのOOD検出において最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2025-03-28T10:01:55Z) - Adaptive Residual Transformation for Enhanced Feature-Based OOD Detection in SAR Imagery [5.63530048112308]
実際の戦場シナリオにおける未知の標的の存在は避けられない。
この問題に対処するために、様々な機能ベースのアウト・オブ・ディストリビューションアプローチが開発されている。
我々は,特徴量に基づくOOD検出をクラス局所化された特徴量に基づくアプローチに変換することを提案する。
論文 参考訳(メタデータ) (2024-11-01T00:09:02Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Improving Out-of-Distribution Detection with Disentangled Foreground and Background Features [23.266183020469065]
本稿では,IDトレーニングサンプルから前景と背景の特徴を密接な予測手法によって切り離す新しいフレームワークを提案する。
これは、様々な既存のOOD検出メソッドとシームレスに組み合わせられる汎用フレームワークである。
論文 参考訳(メタデータ) (2023-03-15T16:12:14Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。