論文の概要: Odd-One-Out: Anomaly Detection by Comparing with Neighbors
- arxiv url: http://arxiv.org/abs/2406.20099v3
- Date: Thu, 20 Mar 2025 10:26:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 19:01:00.436924
- Title: Odd-One-Out: Anomaly Detection by Comparing with Neighbors
- Title(参考訳): Odd-One-Out:隣人との比較による異常検出
- Authors: Ankan Bhunia, Changjian Li, Hakan Bilen,
- Abstract要約: 本稿では,シーン内の奇妙な物体を,現在ある物体と比較することによって識別することを目的とした,新たな異常検出(AD)問題を提案する。
固定された異常基準を持つ従来のADベンチマークとは異なり、本タスクは通常のオブジェクトの参照グループを推定することにより、各シーン固有の異常を検出する。
- 参考スコア(独自算出の注目度): 27.474201071615187
- License:
- Abstract: This paper introduces a novel anomaly detection (AD) problem aimed at identifying `odd-looking' objects within a scene by comparing them to other objects present. Unlike traditional AD benchmarks with fixed anomaly criteria, our task detects anomalies specific to each scene by inferring a reference group of regular objects. To address occlusions, we use multiple views of each scene as input, construct 3D object-centric models for each instance from 2D views, enhancing these models with geometrically consistent part-aware representations. Anomalous objects are then detected through cross-instance comparison. We also introduce two new benchmarks, ToysAD-8K and PartsAD-15K as testbeds for future research in this task. We provide a comprehensive analysis of our method quantitatively and qualitatively on these benchmarks.
- Abstract(参考訳): 本稿では,現在ある物体と比較することにより,シーン内の「擬似」物体を識別することを目的とした,新たな異常検出(AD)問題を提案する。
固定された異常基準を持つ従来のADベンチマークとは異なり、本タスクは通常のオブジェクトの参照グループを推定することにより、各シーン固有の異常を検出する。
オークルージョンに対処するために,各シーンの複数のビューを入力として使用し,各インスタンスに対して2次元ビューから3次元オブジェクト中心モデルを構築し,幾何学的に一貫した部分認識表現でこれらのモデルを拡張した。
異常なオブジェクトは、クロスインスタンス比較によって検出される。
また、ToysAD-8KとPartsAD-15Kという2つの新しいベンチマークを将来の研究のためのテストベッドとして導入する。
本手法を定量的かつ定性的に,これらのベンチマーク上で総合的に分析する。
関連論文リスト
- View-Invariant Pixelwise Anomaly Detection in Multi-object Scenes with Adaptive View Synthesis [0.0]
インフラ資産の検査と監視には、定期的に撮影されるシーンの視覚異常を特定する必要がある。
手動で収集した画像や、同じ場面で同じシーンから無人航空機などのロボットで撮影された画像は、通常は完全に一致していない。
現在の非教師なし画素レベルの異常検出法は, 主に産業環境下で開発されている。
提案するScene AD問題に対処するために,OmniADと呼ばれる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-26T01:54:10Z) - S$^3$-MonoDETR: Supervised Shape&Scale-perceptive Deformable Transformer for Monocular 3D Object Detection [21.96072831561483]
本稿では,モノクロ3次元物体検出のためのSupervised Shape&Scale-perceptive Deformable Attention' (S$3$-DA) モジュールを提案する。
これにより、S$3$-DAは、任意のカテゴリに属するクエリポイントに対する受容的フィールドを効果的に推定し、堅牢なクエリ機能を生成することができる。
KITTIとOpenデータセットの実験では、S$3$-DAが検出精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-02T12:36:38Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - MVM3Det: A Novel Method for Multi-view Monocular 3D Detection [0.0]
MVM3Detは、多視点単眼情報に基づいて、オブジェクトの3次元位置と向きを同時に推定する。
MVM3Dというマルチビュー3Dオブジェクト検出のための最初のデータセットを提案する。
論文 参考訳(メタデータ) (2021-09-22T01:31:00Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features [14.115782214599015]
ワンショットオブジェクト検出は、単一のデモによって定義されたオブジェクトを検出することで構成される。
ローカライズと認識を共同で行うワンステージシステムを構築している。
いくつかの挑戦的領域に対する実験的評価は,本手法が未知のクラスを検出できることを示唆している。
論文 参考訳(メタデータ) (2020-03-15T11:39:47Z) - OIAD: One-for-all Image Anomaly Detection with Disentanglement Learning [23.48763375455514]
クリーンサンプルのみを用いたアンタングル学習に基づく一対一画像異常検出システムを提案する。
3つのデータセットを用いて実験したところ、OIADは90%以上の異常を検出できる一方で、誤報率も低く抑えられることがわかった。
論文 参考訳(メタデータ) (2020-01-18T09:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。