論文の概要: Odd-One-Out: Anomaly Detection by Comparing with Neighbors
- arxiv url: http://arxiv.org/abs/2406.20099v1
- Date: Fri, 28 Jun 2024 17:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 16:01:13.038279
- Title: Odd-One-Out: Anomaly Detection by Comparing with Neighbors
- Title(参考訳): Odd-One-Out:隣人との比較による異常検出
- Authors: Ankan Bhunia, Changjian Li, Hakan Bilen,
- Abstract要約: 本稿では、シーン内の他のインスタンスと比較して奇異な物体を識別することに焦点を当てた、新しい異常検出(AD)問題を提案する。
従来のADベンチマークとは異なり、私たちの設定では、このコンテキストの異常はシーン固有のものであり、多数を占める通常のインスタンスによって定義されます。
本稿では,各インスタンスに対して3次元オブジェクト中心表現を生成し,インスタンス間の相互比較により異常表現を検出する手法を提案する。
- 参考スコア(独自算出の注目度): 27.474201071615187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel anomaly detection (AD) problem that focuses on identifying `odd-looking' objects relative to the other instances within a scene. Unlike the traditional AD benchmarks, in our setting, anomalies in this context are scene-specific, defined by the regular instances that make up the majority. Since object instances are often partly visible from a single viewpoint, our setting provides multiple views of each scene as input. To provide a testbed for future research in this task, we introduce two benchmarks, ToysAD-8K and PartsAD-15K. We propose a novel method that generates 3D object-centric representations for each instance and detects the anomalous ones through a cross-examination between the instances. We rigorously analyze our method quantitatively and qualitatively in the presented benchmarks.
- Abstract(参考訳): 本稿では,シーン内の他の事例と比較した「擬似的」オブジェクトの同定に焦点をあてた,新たな異常検出(AD)問題を提案する。
従来のADベンチマークとは異なり、私たちの設定では、このコンテキストの異常はシーン固有のものであり、多数を占める通常のインスタンスによって定義されます。
オブジェクトインスタンスは、しばしば一つの視点から部分的に見えるので、私たちの設定は各シーンを入力として複数のビューを提供します。
本稿では,ToysAD-8KとPartsAD-15Kの2つのベンチマークを紹介する。
本稿では,各インスタンスに対して3次元オブジェクト中心表現を生成し,インスタンス間の相互比較により異常表現を検出する手法を提案する。
提案したベンチマークにおいて,本手法を定量的かつ定性的に分析する。
関連論文リスト
- View-Invariant Pixelwise Anomaly Detection in Multi-object Scenes with Adaptive View Synthesis [0.0]
インフラ資産の検査と監視には、定期的に撮影されるシーンの視覚異常を特定する必要がある。
手動で収集した画像や、同じ場面で同じシーンから無人航空機などのロボットで撮影された画像は、通常は完全に一致していない。
現在の非教師なし画素レベルの異常検出法は, 主に産業環境下で開発されている。
提案するScene AD問題に対処するために,OmniADと呼ばれる新しいネットワークを提案する。
論文 参考訳(メタデータ) (2024-06-26T01:54:10Z) - S$^3$-MonoDETR: Supervised Shape&Scale-perceptive Deformable Transformer for Monocular 3D Object Detection [21.96072831561483]
本稿では,モノクロ3次元物体検出のためのSupervised Shape&Scale-perceptive Deformable Attention' (S$3$-DA) モジュールを提案する。
これにより、S$3$-DAは、任意のカテゴリに属するクエリポイントに対する受容的フィールドを効果的に推定し、堅牢なクエリ機能を生成することができる。
KITTIとOpenデータセットの実験では、S$3$-DAが検出精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-02T12:36:38Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Collaborative Propagation on Multiple Instance Graphs for 3D Instance
Segmentation with Single-point Supervision [63.429704654271475]
本稿では,1つのオブジェクトを1つのポイントでラベル付けするだけでよい,弱教師付き手法RWSegを提案する。
これらの疎いラベルにより、セマンティック情報とインスタンス情報を伝達する2つの分岐を持つ統一的なフレームワークを導入する。
具体的には、異なるインスタンスグラフ間の競合を促進するクロスグラフ競合ランダムウォークス(CRW)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-10T02:14:39Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - MVM3Det: A Novel Method for Multi-view Monocular 3D Detection [0.0]
MVM3Detは、多視点単眼情報に基づいて、オブジェクトの3次元位置と向きを同時に推定する。
MVM3Dというマルチビュー3Dオブジェクト検出のための最初のデータセットを提案する。
論文 参考訳(メタデータ) (2021-09-22T01:31:00Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - OS2D: One-Stage One-Shot Object Detection by Matching Anchor Features [14.115782214599015]
ワンショットオブジェクト検出は、単一のデモによって定義されたオブジェクトを検出することで構成される。
ローカライズと認識を共同で行うワンステージシステムを構築している。
いくつかの挑戦的領域に対する実験的評価は,本手法が未知のクラスを検出できることを示唆している。
論文 参考訳(メタデータ) (2020-03-15T11:39:47Z) - OIAD: One-for-all Image Anomaly Detection with Disentanglement Learning [23.48763375455514]
クリーンサンプルのみを用いたアンタングル学習に基づく一対一画像異常検出システムを提案する。
3つのデータセットを用いて実験したところ、OIADは90%以上の異常を検出できる一方で、誤報率も低く抑えられることがわかった。
論文 参考訳(メタデータ) (2020-01-18T09:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。