論文の概要: Self-Supervised Transformers for Unsupervised Object Discovery using
Normalized Cut
- arxiv url: http://arxiv.org/abs/2202.11539v1
- Date: Wed, 23 Feb 2022 14:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 14:29:20.728680
- Title: Self-Supervised Transformers for Unsupervised Object Discovery using
Normalized Cut
- Title(参考訳): 正規化カットを用いた教師なし物体発見のための自己監督型変圧器
- Authors: Yangtao Wang (M-PSI), Xi Shen (LIGM), Shell Hu, Yuan Yuan (MIT CSAIL),
James Crowley (M-PSI), Dominique Vaufreydaz (M-PSI)
- Abstract要約: 画像から物体を発見するために自己教師付きトランスフォーマー機能を利用するグラフベースのアプローチを実証する。
ビジュアルトークンは、トークンの類似性に基づいて接続スコアを表すエッジを持つ重み付きグラフのノードと見なされる。
弱教師付きオブジェクト検出では,CUBとImageNetの競合性能を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers trained with self-supervised learning using self-distillation
loss (DINO) have been shown to produce attention maps that highlight salient
foreground objects. In this paper, we demonstrate a graph-based approach that
uses the self-supervised transformer features to discover an object from an
image. Visual tokens are viewed as nodes in a weighted graph with edges
representing a connectivity score based on the similarity of tokens. Foreground
objects can then be segmented using a normalized graph-cut to group
self-similar regions. We solve the graph-cut problem using spectral clustering
with generalized eigen-decomposition and show that the second smallest
eigenvector provides a cutting solution since its absolute value indicates the
likelihood that a token belongs to a foreground object. Despite its simplicity,
this approach significantly boosts the performance of unsupervised object
discovery: we improve over the recent state of the art LOST by a margin of
6.9%, 8.1%, and 8.1% respectively on the VOC07, VOC12, and COCO20K. The
performance can be further improved by adding a second stage class-agnostic
detector (CAD). Our proposed method can be easily extended to unsupervised
saliency detection and weakly supervised object detection. For unsupervised
saliency detection, we improve IoU for 4.9%, 5.2%, 12.9% on ECSSD, DUTS,
DUT-OMRON respectively compared to previous state of the art. For weakly
supervised object detection, we achieve competitive performance on CUB and
ImageNet.
- Abstract(参考訳): 自己蒸留損失(DINO)を用いて自己教師学習を訓練したトランスフォーマーは、有意な前景オブジェクトをハイライトする注意マップを生成する。
本稿では,自己教師付きトランスフォーマー機能を用いて画像から物体を検出するグラフベースの手法を提案する。
ビジュアルトークンは、トークンの類似性に基づいて接続スコアを表すエッジを持つ重み付きグラフのノードと見なされる。
前景オブジェクトは正規化グラフカットを使用してセグメント化され、自己相似領域をグループ化する。
一般化固有分解によるスペクトルクラスタリングを用いてグラフカット問題を解き、その絶対値が前景オブジェクトに属する可能性を示すため、第2最小の固有ベクトルがカット解を提供することを示した。
私たちは、voc07、voc12、coco20kでそれぞれ6.9%、8.1%、8.1%のマージンで失われた最近の芸術の状態を改善しました。
第2段階のクラス非依存検出器(CAD)を追加することにより、さらなる性能向上が図られる。
提案手法は,教師なしサリエンシ検出や弱教師付きオブジェクト検出に容易に拡張できる。
教師なし塩分濃度検出では,従来の技術と比較して,ECSSD,DUTS,DUT-OMRONの4.9%,5.2%,12.9%でIoUを改善した。
弱教師付きオブジェクト検出では,CUBとImageNetの競合性能を実現する。
関連論文リスト
- A Manifold Representation of the Key in Vision Transformers [8.938418994111716]
本稿では、キーをクエリと値から切り離し、キーの多様体表現を採用するという概念について検討する。
実験の結果,鍵を多様体構造で切り離して付与することで,モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-01T12:01:43Z) - PointOBB: Learning Oriented Object Detection via Single Point
Supervision [55.88982271340328]
本稿では,オブジェクト指向物体検出のための最初の単一点ベース OBB 生成法である PointOBB を提案する。
PointOBBは、オリジナルビュー、リサイズビュー、ローテーション/フリップ(rot/flp)ビューの3つのユニークなビューの協調利用を通じて動作する。
DIOR-RとDOTA-v1.0データセットの実験結果は、PointOBBが有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2023-11-23T15:51:50Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Pushing the Limits of Fewshot Anomaly Detection in Industry Vision:
Graphcore [71.09522172098733]
FSADにおけるグラフ表現を利用して,新しい視覚不変特徴(VIIF)を異常測定特徴として利用する。
VIIFは異常識別能力を確実に向上し、Mに格納された冗長な特徴のサイズをさらに小さくすることができる。
さらに、教師なしFSADトレーニングを高速に実装し、異常検出の性能を向上させることができる、VIIFによる新しいモデルGraphCoreを提供する。
論文 参考訳(メタデータ) (2023-01-28T03:58:32Z) - Cut and Learn for Unsupervised Object Detection and Instance
Segmentation [65.43627672225624]
Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
論文 参考訳(メタデータ) (2023-01-26T18:57:13Z) - MOVE: Unsupervised Movable Object Segmentation and Detection [32.73565093619594]
MOVEは、いかなる形態の監視もせずにオブジェクトを分割する手法である。
これは、前景のオブジェクトが初期位置に対して局所的に移動できるという事実を利用する。
SotAよりも平均で7.2%改善している。
論文 参考訳(メタデータ) (2022-10-14T16:05:46Z) - TokenCut: Segmenting Objects in Images and Videos with Self-supervised
Transformer and Normalized Cut [9.609330588890632]
本稿では,自己教師型トランスフォーマーによって得られた特徴を利用して,画像やビデオ中の有能なオブジェクトを検出し,セグメント化するグラフベースのアルゴリズムについて述べる。
このアプローチの単純さにもかかわらず、いくつかの共通画像およびビデオ検出およびセグメンテーションタスクにおける最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-09-01T11:52:26Z) - Structure-Consistent Weakly Supervised Salient Object Detection with
Local Saliency Coherence [14.79639149658596]
本論文では,スクリブルアノテーションによる弱監督オブジェクト検出のための1ラウンドのエンドツーエンドトレーニング手法を提案する。
6つのベンチマークで最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-12-08T12:49:40Z) - 3DIoUMatch: Leveraging IoU Prediction for Semi-Supervised 3D Object
Detection [76.42897462051067]
3DIoUMatchは屋内および屋外の場面両方に適当3D目的の検出のための新しい半監視された方法です。
教師と教師の相互学習の枠組みを活用し,ラベル付けされていない列車の情報を擬似ラベルの形で伝達する。
本手法は,ScanNetとSUN-RGBDのベンチマークにおける最先端の手法を,全てのラベル比で有意差で継続的に改善する。
論文 参考訳(メタデータ) (2020-12-08T11:06:26Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。