論文の概要: Fast Post-Hoc Confidence Fusion for 3-Class Open-Set Aerial Object Detection
- arxiv url: http://arxiv.org/abs/2511.15343v1
- Date: Wed, 19 Nov 2025 11:03:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.777861
- Title: Fast Post-Hoc Confidence Fusion for 3-Class Open-Set Aerial Object Detection
- Title(参考訳): 3クラスオープンセット空中物体検出のための高速時間後信頼融合
- Authors: Spyridon Loukovitis, Vasileios Karampinis, Athanasios Voulodimos,
- Abstract要約: オープンセット検出のための軽量でモデルに依存しない後処理フレームワークを提案する。
マルチ層パーセプトロンを用いて複数の信頼度推定と検出単位の特徴を集約する融合方式を用いる。
本手法は2クラス分類において平均2.7%のAUROCでしきい値ベースラインを超え,オープンセットのmAPを維持するか改善する。
- 参考スコア(独自算出の注目度): 2.8356564237643203
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing reliable UAV navigation systems requires robust air-to-air object detectors capable of distinguishing between objects seen during training and previously unseen objects. While many methods address closed-set detection and achieve high-confidence recognition of in-domain (ID) targets, they generally do not tackle open-set detection, which requires simultaneous handling of both ID and out-of-distribution (OOD) objects. Existing open-set approaches typically rely on a single uncertainty score with thresholding, limiting flexibility and often conflating OOD objects with background clutter. In contrast, we propose a lightweight, model-agnostic post-processing framework that explicitly separates background from unknown objects while preserving the base detector's performance. Our approach extends open-set detection beyond binary ID/OOD classification to real-time three-way classification among ID targets, OOD objects, and background. To this end, we employ a fusion scheme that aggregates multiple confidence estimates and per-detection features using a compact multilayer perceptron (MLP). Incorporating different logit variants into the MLP consistently enhances performance across both binary and three-class classification without compromising throughput. Extensive ablation and comparative experiments confirm that our method surpasses threshold-based baselines in two-class classification by an average of 2.7% AUROC, while retaining or improving open-set mAP. Furthermore, our study uniquely enables robust three-class classification, a critical capability for safe UAV navigation, where OOD objects must be actively avoided and background regions safely ignored. Comparative analysis highlights that our method surpasses competitive techniques in AUROC across datasets, while improving closed-set mAP by up to 9 points, an 18% relative gain.
- Abstract(参考訳): 信頼性の高いUAVナビゲーションシステムを開発するには、訓練中に見られた物体とそれまで見えなかった物体を区別できる堅牢な空対空物体検出器が必要である。
多くのメソッドがクローズドセット検出に対処し、ドメイン内(ID)ターゲットの高信頼度認識を実現するが、一般にはオープンセット検出には対応せず、IDとアウト・オブ・ディストリビューション(OOD)の両方のオブジェクトを同時処理する必要がある。
既存のオープンセットアプローチは通常、1つの不確実性スコアとしきい値、柔軟性の制限、背景のぼやけたOODオブジェクトの混在に依存している。
対照的に、ベース検出器の性能を維持しながら、背景を未知のオブジェクトから明確に分離する軽量でモデルに依存しない後処理フレームワークを提案する。
提案手法は,バイナリID/OOD分類を超えたオープンセット検出を,IDターゲット,OODオブジェクト,バックグラウンドのリアルタイム3方向分類に拡張する。
この目的のために,小型多層パーセプトロン(MLP)を用いて,複数の信頼度推定と検出毎の特徴を集約する融合方式を用いる。
異なるロジット変種をMLPに組み込むことで、スループットを損なうことなく、バイナリクラスと3クラスの両方のパフォーマンスが一貫して向上する。
拡張的アブレーションおよび比較実験により,オープンセットのmAPを維持し,改善しながら,平均2.7%のAUROCでしきい値ベースラインを超えることが確認された。
さらに,本研究は,OODオブジェクトを積極的に回避し,背景領域を安全に無視する,安全なUAVナビゲーションのための重要な機能である,堅牢な3クラス分類を可能にする。
比較分析の結果,提案手法はデータセット間でのAUROCの競合技術を上回るが,クローズドセットのmAPは最大9ポイント向上し,相対利得は18%であった。
関連論文リスト
- Source-Free Object Detection with Detection Transformer [59.33653163035064]
Source-Free Object Detection (SFOD) は、ソースデータにアクセスすることなく、ソースドメインから教師なしのターゲットドメインへの知識転送を可能にする。
ほとんどの既存のSFODアプローチは、より高速なR-CNNのような従来のオブジェクト検出(OD)モデルに限られるか、新しいODアーキテクチャ、特に検出変換器(DETR)に適合しない一般的なソリューションとして設計されている。
本稿では,DTRのクエリ中心の機能強化を特化して設計された新しいSFODフレームワークであるFeature Reweighting ANd Contrastive Learning NetworK(FRANCK)を紹介する。
論文 参考訳(メタデータ) (2025-10-13T07:35:04Z) - CADRef: Robust Out-of-Distribution Detection via Class-Aware Decoupled Relative Feature Leveraging [5.356623181327855]
CARef(Class-Aware Relative Feature-based Method)とCADRef(Class-Aware Decoupled Relative Feature-based Method)を提案する。
両手法は, 最先端手法と比較してOOD検出の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2025-03-01T03:23:10Z) - Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - OSAD: Open-Set Aircraft Detection in SAR Images [1.1060425537315088]
オープンセット検出は、クローズドセットでトレーニングされた検出器によって、すべての既知のオブジェクトを検出し、オープンセット環境で未知のオブジェクトを識別することを目的としている。
これらの課題に対処するため、SAR画像のための新しいオープンセット航空機検出器、Open-Set Aircraft Detection (OSAD) が提案されている。
グローバルコンテキストモデリング(GCM)、位置品質駆動型擬似ラベル生成(LPG)、プロトタイプコントラスト学習(PCL)の3つの専用コンポーネントを備えている。
論文 参考訳(メタデータ) (2024-11-03T15:06:14Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - Revisiting Domain-Adaptive 3D Object Detection by Reliable, Diverse and
Class-balanced Pseudo-Labeling [38.07637524378327]
ドメイン適応型3Dオブジェクト検出において,疑似ラベリング技術を用いた教師なしドメイン適応(DA)が重要なアプローチとして浮上している。
既存のDAメソッドは、マルチクラスのトレーニング環境に適用した場合、パフォーマンスが大幅に低下する。
本稿では,すべてのクラスを一度に検出する学習に適した新しいReDBフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-16T04:34:11Z) - Robust and Accurate Object Detection via Self-Knowledge Distillation [9.508466066051572]
Unified Decoupled Feature Alignment (UDFA)は、既存のメソッドよりも優れたパフォーマンスを実現する新しい微調整パラダイムである。
UDFAは、対象検出のための標準的な訓練方法や最先端の訓練方法を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T04:40:15Z) - Multimodal Object Detection via Bayesian Fusion [59.31437166291557]
我々は、RGBとサーマルカメラでマルチモーダルオブジェクト検出を研究します。後者は照明不良下ではるかに強力なオブジェクトシグネチャを提供することができます。
我々の重要な貢献は、異なるモードのボックス検出を融合する非学習遅延融合法である。
このアプローチは、整列(KAIST)と非整列(FLIR)のマルチモーダルセンサーデータを含むベンチマークに適用されます。
論文 参考訳(メタデータ) (2021-04-07T04:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。