論文の概要: Instance-Aware Observer Network for Out-of-Distribution Object
Segmentation
- arxiv url: http://arxiv.org/abs/2207.08782v2
- Date: Wed, 20 Jul 2022 12:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 10:47:30.321203
- Title: Instance-Aware Observer Network for Out-of-Distribution Object
Segmentation
- Title(参考訳): 分散オブジェクトセグメンテーションのためのインスタンスアウェアオブザーバネットワーク
- Authors: Victor Besnier, Andrei Bursuc, David Picard, Alexandre Briot
- Abstract要約: 我々は、インスタンスワイドマスク予測を利用して、ObsNetのアプローチを拡張します。
提案手法は,3つのデータセット上の分布内オブジェクトから分布内オブジェクトを正確に分離する。
- 参考スコア(独自算出の注目度): 94.73449180972239
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent work on Observer Network has shown promising results on
Out-Of-Distribution (OOD) detection for semantic segmentation. These methods
have difficulty in precisely locating the point of interest in the image, i.e,
the anomaly. This limitation is due to the difficulty of fine-grained
prediction at the pixel level. To address this issue, we provide instance
knowledge to the observer. We extend the approach of ObsNet by harnessing an
instance-wise mask prediction. We use an additional, class agnostic, object
detector to filter and aggregate observer predictions. Finally, we predict an
unique anomaly score for each instance in the image. We show that our proposed
method accurately disentangle in-distribution objects from Out-Of-Distribution
objects on three datasets.
- Abstract(参考訳): Observer Networkの最近の研究は、セマンティックセグメンテーションのためのout-Of-Distribution(OOD)検出に有望な結果を示している。
これらの手法は、画像の興味点、すなわち異常点を正確に特定することが困難である。
この制限は、ピクセルレベルでの微細な予測が難しいためである。
この問題に対処するため、観測者に事例知識を提供する。
我々はインスタンスワイドマスク予測を利用してObsNetのアプローチを拡張する。
我々は、観測者予測をフィルタリングし集約するために、追加のクラスに依存しないオブジェクト検出器を使用する。
最後に、画像の各インスタンスに対するユニークな異常スコアを予測します。
提案手法は,3つのデータセット上の外部分布オブジェクトから分布オブジェクトを正確に分離する。
関連論文リスト
- Learning Temporal Cues by Predicting Objects Move for Multi-camera 3D Object Detection [9.053936905556204]
本稿では,2分岐ネットワークからなるDAP (Detection After Prediction) モデルを提案する。
分岐(i)から現在のオブジェクトを予測する特徴は、予測知識を伝達するために分岐(ii)に融合される。
私たちのモデルはプラグイン・アンド・プレイで使用することができ、一貫したパフォーマンス向上を示します。
論文 参考訳(メタデータ) (2024-04-02T02:20:47Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - GaTector: A Unified Framework for Gaze Object Prediction [11.456242421204298]
我々は、視線オブジェクト予測問題に統一的に取り組むために、GaTectorという新しいフレームワークを構築した。
入力とタスクの特異性をよりよく考慮するために、GaTectorは共有バックボーンの前に2つの入力固有のブロックを導入し、共有バックボーン後に3つのタスク固有のブロックを導入している。
最後に、重なり合う領域を共有できない場合でも、ボックス間の差を明らかにすることのできる、新しいwUoCメトリックを提案する。
論文 参考訳(メタデータ) (2021-12-07T07:50:03Z) - Ensembling object detectors for image and video data analysis [98.26061123111647]
本稿では,複数の物体検出器の出力をアンサンブルすることで,画像データ上の境界ボックスの検出性能と精度を向上させる手法を提案する。
本研究では,2段階追跡に基づく検出精度向上手法を提案することで,映像データに拡張する。
論文 参考訳(メタデータ) (2021-02-09T12:38:16Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Detective: An Attentive Recurrent Model for Sparse Object Detection [25.5804429439316]
ディテクティヴ(英: Detective)は、画像中の物体を連続的に識別する注意オブジェクト検出器である。
Detectiveはスパースオブジェクト検出器で、オブジェクトインスタンス毎に単一のバウンディングボックスを生成する。
ハンガリーのアルゴリズムに基づく学習機構と,局所化と分類タスクのバランスをとる損失を提案する。
論文 参考訳(メタデータ) (2020-04-25T17:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。