論文の概要: Out-of-distribution detection in satellite image classification
- arxiv url: http://arxiv.org/abs/2104.05442v1
- Date: Fri, 9 Apr 2021 11:11:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:31:13.508434
- Title: Out-of-distribution detection in satellite image classification
- Title(参考訳): 衛星画像分類における分布外検出
- Authors: Jakob Gawlikowski, Sudipan Saha, Anna Kruspe, Xiao Xiang Zhu
- Abstract要約: 衛星画像解析では、テストデータの見当たらないクラスと地理的な差異が分布ミスマッチの原因となる可能性がある。
ディープラーニングベースのモデルは、トレーニングデータからそのような分布シフトを持つテストデータを受けると、予期せぬ方法で振る舞います。
遠隔センシングのための深層学習モデルの分布的不確かさを定量化するためにdirichlet prior network based modelを採用する。
- 参考スコア(独自算出の注目度): 11.479629320025671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In satellite image analysis, distributional mismatch between the training and
test data may arise due to several reasons, including unseen classes in the
test data and differences in the geographic area. Deep learning based models
may behave in unexpected manner when subjected to test data that has such
distributional shifts from the training data, also called out-of-distribution
(OOD) examples. Predictive uncertainly analysis is an emerging research topic
which has not been explored much in context of satellite image analysis.
Towards this, we adopt a Dirichlet Prior Network based model to quantify
distributional uncertainty of deep learning models for remote sensing. The
approach seeks to maximize the representation gap between the in-domain and OOD
examples for a better identification of unknown examples at test time.
Experimental results on three exemplary test scenarios show the efficacy of the
model in satellite image analysis.
- Abstract(参考訳): 衛星画像解析では,テストデータの非認識クラスや地理的領域の違いなど,いくつかの理由から,トレーニングデータとテストデータの分布ミスマッチが発生する可能性がある。
ディープラーニングベースのモデルは、トレーニングデータからそのような分散シフトを持つテストデータ(out-of-distribution (OOD)例)に従えば、予期せず振る舞うことができる。
予測的不確実性分析は、衛星画像解析に関してあまり研究されていない研究トピックである。
そこで我々はディリクレ事前ネットワークモデルを用いて,リモートセンシングのためのディープラーニングモデルの分布不確かさを定量化する。
このアプローチは、テスト時に未知の例をよりよく識別するために、ドメイン内の例とOOD例の間の表現ギャップを最大化することを目指している。
3つの例による実験結果から,衛星画像解析におけるモデルの有効性が示された。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Detecting Out-Of-Distribution Earth Observation Images with Diffusion Models [2.1178416840822027]
本研究では,拡散モデルの再構成誤差がリモートセンシング画像の非教師外分布検出器として有効であることを示す。
本稿では,拡散モデルの確率フローODEを用いた新しい再構成ベースのスコアラODEEDを紹介する。
遠隔センシングにおける異常検出のための生成モデルのより良い利用に向けた道を開くことを目的としている。
論文 参考訳(メタデータ) (2024-04-19T07:07:36Z) - The Mirrored Influence Hypothesis: Efficient Data Influence Estimation by Harnessing Forward Passes [30.30769701138665]
我々は、訓練データとテストデータの間の相互影響を浮き彫りにして、ミラーレッド影響仮説を導入し、探求する。
具体的には、テスト予測に対するトレーニングデータの影響を評価することは、等価だが逆問題として再定義することができることを示唆している。
トレーニングポイント毎に前方パスとペアを組むことで,特定のテストサンプルの勾配を計算し,トレーニングデータの影響を推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-14T03:43:05Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks [6.100274095771616]
この研究は、スパイキングニューラルネットワークに入力されたテスト例がトレーニングされたデータの分布に属するかどうかを識別できる新しいOoD検出器を提案する。
我々は、スパイクカウントパターンの形で、ネットワークの隠蔽層の内部活性化を特徴付ける。
入力インスタンスのどの部分が最もOoDサンプルとして検出されるかを明らかにする属性マップを作成するために,局所的な説明法が考案された。
論文 参考訳(メタデータ) (2022-09-30T11:16:35Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Bayesian Imaging With Data-Driven Priors Encoded by Neural Networks:
Theory, Methods, and Algorithms [2.266704469122763]
本稿では,事前知識がトレーニングデータとして利用可能である逆問題に対して,ベイズ推定を行う新しい手法を提案する。
容易に検証可能な条件下で,関連する後方モーメントの存在と適切性を確立する。
モデル精度解析により、データ駆動モデルによって報告されるベイズ確率は、頻繁な定義の下で著しく正確であることが示された。
論文 参考訳(メタデータ) (2021-03-18T11:34:08Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。