論文の概要: One Metric to Measure them All: Localisation Recall Precision (LRP) for
Evaluating Visual Detection Tasks
- arxiv url: http://arxiv.org/abs/2011.10772v3
- Date: Sun, 21 Nov 2021 17:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 23:24:39.388685
- Title: One Metric to Measure them All: Localisation Recall Precision (LRP) for
Evaluating Visual Detection Tasks
- Title(参考訳): すべてを測定するためのメトリクス:視覚的検出タスクを評価するローカライゼーションリコール精度(LRP)
- Authors: Kemal Oksuz and Baris Can Cam and Sinan Kalkan and Emre Akbas
- Abstract要約: ローカライゼーションリコール精度(LRP)誤差は、ローカライゼーション品質に基づいて計算された視覚検出器の平均一致誤差である。
平均精度(AP)とPanoptic Quality(PQ)によるLPP誤差の詳細な比較分析を行う。
私たちは7つの視覚的検出タスクから、100近い最先端のビジュアル検出器を使用して、LRP Errorがそれよりも豊かで非ネイティブな情報を提供することを実証的に示しています。
- 参考スコア(独自算出の注目度): 21.349625353213444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite being widely used as a performance measure for visual detection
tasks, Average Precision (AP) is limited in (i) reflecting localisation
quality, (ii) interpretability and (iii) robustness to the design choices
regarding its computation, and its applicability to outputs without confidence
scores. Panoptic Quality (PQ), a measure proposed for evaluating panoptic
segmentation (Kirillov et al., 2019), does not suffer from these limitations
but is limited to panoptic segmentation. In this paper, we propose Localisation
Recall Precision (LRP) Error as the average matching error of a visual detector
computed based on both its localisation and classification qualities for a
given confidence score threshold. LRP Error, initially proposed only for object
detection by Oksuz et al. (2018), does not suffer from the aforementioned
limitations and is applicable to all visual detection tasks. We also introduce
Optimal LRP (oLRP) Error as the minimum LRP Error obtained over confidence
scores to evaluate visual detectors and obtain optimal thresholds for
deployment. We provide a detailed comparative analysis of LRP Error with AP and
PQ, and use nearly 100 state-of-the-art visual detectors from seven visual
detection tasks (i.e. object detection, keypoint detection, instance
segmentation, panoptic segmentation, visual relationship detection, zero-shot
detection and generalised zero-shot detection) using ten datasets to
empirically show that LRP Error provides richer and more discriminative
information than its counterparts. Code available at:
https://github.com/kemaloksuz/LRP-Error
- Abstract(参考訳): 視覚検出タスクのパフォーマンス指標として広く使用されているが、平均精度(AP)は制限されている。
(i)ローカライゼーションの質を反映する
(ii)解釈可能性及び
(iii)その計算に関する設計上の選択に対する堅牢性、及び信頼度スコアのない出力への適用性。
panoptic quality (pq)は、panoptic segmentation (kirillov et al., 2019)を評価するための尺度であり、これらの制限に苦しむのではなく、panoptic segmentationに限定されている。
本稿では,所定の信頼度スコア閾値に対する局所化と分類品質の両方に基づいて算出された視覚検出器の平均マッチング誤差として局所化リコール精度(lrp)誤差を提案する。
LRP Error は当初 Oksuz et al. (2018) によるオブジェクト検出のためだけに提案されていたが、上記の制限に悩まされておらず、全ての視覚検出タスクに適用できる。
また, 最適LRP誤差(oLRP)を, 信頼度で得られた最小LRP誤差として導入し, 視覚検出器の評価を行い, 配置の最適しきい値を求める。
我々は,AP と PQ を用いた LRP Error の詳細な比較分析を行い,オブジェクト検出,キーポイント検出,インスタンスセグメンテーション,汎視的セグメンテーション,視覚的関係検出,ゼロショット検出,一般化ゼロショット検出)7つの視覚的タスクから,100近い最先端の視覚検出器を用いて,LRP Error がよりリッチで差別的な情報を提供することを示す。
https://github.com/kemaloksuz/LRP-Error
関連論文リスト
- A Novel Unified Architecture for Low-Shot Counting by Detection and Segmentation [10.461109095311546]
ローショットオブジェクトカウンタは、注釈付き例題をほとんどあるいは全く使用せずに画像内のオブジェクト数を推定する。
既存のアプローチは、しばしば過一般化と偽陽性検出につながる。
本稿では,オブジェクト検出,セグメンテーション,カウント推定を行う新しいローショットカウンタであるGeCoを紹介する。
論文 参考訳(メタデータ) (2024-09-27T12:20:29Z) - Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - Refined Infrared Small Target Detection Scheme with Single-Point Supervision [2.661766509317245]
単一点監視を用いた革新的赤外線小目標検出手法を提案する。
提案手法は最先端(SOTA)性能を実現する。
特に、提案手法は「ICPR 2024 Resource-Limited Infrared Small Target Detection Challenge Track 1: Weakly Supervised Infrared Small Target Detection」で3位を獲得した。
論文 参考訳(メタデータ) (2024-08-05T18:49:58Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Query Performance Prediction using Relevance Judgments Generated by Large Language Models [53.97064615557883]
自動生成関連判定(QPP-GenRE)を用いたQPPフレームワークを提案する。
QPP-GenREは、QPPを独立したサブタスクに分解し、ランクリスト内の各項目の関連性を所定のクエリに予測する。
これにより、生成した関連判断を擬似ラベルとして利用して、任意のIR評価尺度を予測することができる。
論文 参考訳(メタデータ) (2024-04-01T09:33:05Z) - CLIPping the Deception: Adapting Vision-Language Models for Universal
Deepfake Detection [3.849401956130233]
広汎な深度検出のための最近の適応手法と組み合わせた事前学習型視覚言語モデル(VLM)の有効性について検討する。
ディープフェイク検出にCLIPを適用するために、単一のデータセット(ProGAN)のみを使用します。
シンプルで軽量なPrompt Tuningベースの適応戦略は、以前のSOTAアプローチよりも5.01% mAPと6.61%の精度で優れている。
論文 参考訳(メタデータ) (2024-02-20T11:26:42Z) - Fast-DetectGPT: Efficient Zero-Shot Detection of Machine-Generated Text
via Conditional Probability Curvature [36.31281981509264]
大規模言語モデル(LLM)は、流動的でコジェントなコンテンツを生成する能力を示している。
信頼できるAIシステムを構築するためには、マシン生成コンテンツと人間によるコンテンツとを区別することが不可欠である。
Fast-DetectGPTは、ディテクターGPTの摂動ステップを、より効率的なサンプリングステップで置き換える最適化されたゼロショット検出器である。
論文 参考訳(メタデータ) (2023-10-08T11:41:28Z) - Detect Any Deepfakes: Segment Anything Meets Face Forgery Detection and
Localization [30.317619885984005]
本稿では,視覚的セグメンテーション基盤モデル,すなわちセグメンテーションモデル(SAM)をフォージェリ検出とローカライゼーションの対面に導入する。
SAMに基づいて,Multiscale Adapterを用いたDADFフレームワークを提案する。
提案するフレームワークは、エンドツーエンドのフォージェリーローカライゼーションと検出最適化をシームレスに統合する。
論文 参考訳(メタデータ) (2023-06-29T16:25:04Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Collaborative Boundary-aware Context Encoding Networks for Error Map
Prediction [65.44752447868626]
本稿では,AEP-Net と呼ばれる協調的コンテキスト符号化ネットワークを提案する。
具体的には、画像とマスクのより優れた特徴融合のための協調的な特徴変換分岐と、エラー領域の正確な局所化を提案する。
AEP-Netはエラー予測タスクの平均DSCが0.8358,0.8164であり、ピアソン相関係数が0.9873である。
論文 参考訳(メタデータ) (2020-06-25T12:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。