論文の概要: Aerial Image Classification in Scarce and Unconstrained Environments via Conformal Prediction
- arxiv url: http://arxiv.org/abs/2504.17655v1
- Date: Thu, 24 Apr 2025 15:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.432946
- Title: Aerial Image Classification in Scarce and Unconstrained Environments via Conformal Prediction
- Title(参考訳): コンフォーマル予測によるスカースおよび非拘束環境の航空画像分類
- Authors: Farhad Pourkamali-Anaraki,
- Abstract要約: 本稿では,難易度の高い航空画像データセット上での共形予測手法の総合的な実験的検討を行う。
本研究では,データスカースと高度に可変な実環境設定の複雑さについて考察する。
その結果, 比較的小さなラベル付きサンプルと単純な非整合性スコアであっても, 共形予測が有意な不確実性推定を導出できることが示唆された。
- 参考スコア(独自算出の注目度): 2.77390041716769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a comprehensive empirical analysis of conformal prediction methods on a challenging aerial image dataset featuring diverse events in unconstrained environments. Conformal prediction is a powerful post-hoc technique that takes the output of any classifier and transforms it into a set of likely labels, providing a statistical guarantee on the coverage of the true label. Unlike evaluations on standard benchmarks, our study addresses the complexities of data-scarce and highly variable real-world settings. We investigate the effectiveness of leveraging pretrained models (MobileNet, DenseNet, and ResNet), fine-tuned with limited labeled data, to generate informative prediction sets. To further evaluate the impact of calibration, we consider two parallel pipelines (with and without temperature scaling) and assess performance using two key metrics: empirical coverage and average prediction set size. This setup allows us to systematically examine how calibration choices influence the trade-off between reliability and efficiency. Our findings demonstrate that even with relatively small labeled samples and simple nonconformity scores, conformal prediction can yield valuable uncertainty estimates for complex tasks. Moreover, our analysis reveals that while temperature scaling is often employed for calibration, it does not consistently lead to smaller prediction sets, underscoring the importance of careful consideration in its application. Furthermore, our results highlight the significant potential of model compression techniques within the conformal prediction pipeline for deployment in resource-constrained environments. Based on our observations, we advocate for future research to delve into the impact of noisy or ambiguous labels on conformal prediction performance and to explore effective model reduction strategies.
- Abstract(参考訳): 本稿では,非拘束環境における多種多様な事象を特徴とする挑戦的空中画像データセット上でのコンフォメーション予測手法の総合的な実験的検討を行った。
コンフォーマル予測(Conformal prediction)は、任意の分類器の出力を受け取り、それを可能性のあるラベルのセットに変換し、真のラベルのカバレッジに関する統計的保証を提供する強力なポストホック手法である。
標準ベンチマークと異なり、本研究では、データスカースと高度に可変な実世界の設定の複雑さについて論じる。
本研究では,事前学習したモデル(MobileNet,DenseNet,ResNet)をラベル付きデータで微調整し,情報的予測セットを生成する効果について検討する。
キャリブレーションの影響を更に評価するために,2つの並列パイプラインを(温度スケーリングなしで)検討し,2つの主要な指標(経験的カバレッジと平均予測セットサイズ)を用いて性能評価を行う。
この設定により、キャリブレーションの選択が信頼性と効率のトレードオフにどのように影響するかを体系的に検証できる。
その結果, 比較的小さなラベル付きサンプルと単純な非整合性スコアであっても, 共形予測は複雑なタスクに対して有意な不確かさを推定できることがわかった。
さらに, 温度スケーリングはキャリブレーションによく用いられるが, 常に予測セットが小さく, 注意深い検討の重要性が強調されている。
さらに,本研究は,資源制約環境におけるモデル圧縮技術の適用可能性を強調した。
本研究は,共形予測性能に対するノイズやあいまいなラベルの影響を探索し,効果的なモデル縮小戦略を検討するための今後の研究を提唱する。
関連論文リスト
- Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - A Conformal Approach to Feature-based Newsvendor under Model Misspecification [2.801095519296785]
共形予測にインスパイアされたモデルフリーで分散フリーなフレームワークを提案する。
ワシントンD.C.のCapital Bikeshareプログラムのシミュレーションデータと実世界のデータセットを用いて,我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2024-12-17T18:34:43Z) - Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Split Conformal Prediction under Data Contamination [14.23965125128232]
データ汚染環境における分割共形予測の堅牢性について検討する。
構築した集合のカバレッジと効率に及ぼす劣化したデータの影響を定量化する。
本稿では,汚染ロバスト・コンフォーマル予測(Contamination Robust Conformal Prediction)と呼ぶ分類設定の調整を提案する。
論文 参考訳(メタデータ) (2024-07-10T14:33:28Z) - The Penalized Inverse Probability Measure for Conformal Classification [0.5172964916120902]
この研究は、Pinalized Inverse Probability(PIP)の非整合性スコアと、その正規化バージョンRePIPを導入し、効率性と情報性の両方を共同で最適化する。
この研究は、PIPに基づく共形分類器が、他の非整合性対策と比較して正確に望ましい振る舞いを示し、情報性と効率のバランスを保っていることを示す。
論文 参考訳(メタデータ) (2024-06-13T07:37:16Z) - Learning with Imbalanced Noisy Data by Preventing Bias in Sample
Selection [82.43311784594384]
実世界のデータセットには、ノイズの多いラベルだけでなく、クラス不均衡も含まれている。
不均衡なデータセットにおけるノイズラベルに対処する,単純かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-17T10:34:53Z) - On the Expected Size of Conformal Prediction Sets [24.161372736642157]
分割共形予測フレームワークを用いて,予測セットの予測サイズを理論的に定量化する。
この正確な定式化は通常直接計算できないので、点推定と高確率境界間隔を導出する。
回帰と分類の両問題に対する実世界のデータセットを用いた実験により,結果の有効性を裏付ける。
論文 参考訳(メタデータ) (2023-06-12T17:22:57Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Taming Overconfident Prediction on Unlabeled Data from Hindsight [50.9088560433925]
ラベルのないデータに対する予測の不確実性を最小化することは、半教師付き学習において優れた性能を達成するための鍵となる要素である。
本稿では,アダプティブシャーニング(Adaptive Sharpening, ADS)と呼ばれる2つのメカニズムを提案する。
ADSは、プラグインにすることで最先端のSSLメソッドを大幅に改善する。
論文 参考訳(メタデータ) (2021-12-15T15:17:02Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。