論文の概要: Deep ViT Features as Dense Visual Descriptors
- arxiv url: http://arxiv.org/abs/2112.05814v1
- Date: Fri, 10 Dec 2021 20:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 19:13:42.310959
- Title: Deep ViT Features as Dense Visual Descriptors
- Title(参考訳): ビジュアルディスクリプタとして深いViT機能
- Authors: Shir Amir, Yossi Gandelsman, Shai Bagon and Tali Dekel
- Abstract要約: 我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を濃密な視覚ディスクリプタとして活用する。
これらの記述子は、コセグメンテーション、部分のコセグメンテーション、および対応を含む様々な応用を促進する。
- 参考スコア(独自算出の注目度): 12.83702462166513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We leverage deep features extracted from a pre-trained Vision Transformer
(ViT) as dense visual descriptors. We demonstrate that such features, when
extracted from a self-supervised ViT model (DINO-ViT), exhibit several striking
properties: (i) the features encode powerful high level information at high
spatial resolution -- i.e., capture semantic object parts at fine spatial
granularity, and (ii) the encoded semantic information is shared across
related, yet different object categories (i.e. super-categories). These
properties allow us to design powerful dense ViT descriptors that facilitate a
variety of applications, including co-segmentation, part co-segmentation and
correspondences -- all achieved by applying lightweight methodologies to deep
ViT features (e.g., binning / clustering). We take these applications further
to the realm of inter-class tasks -- demonstrating how objects from related
categories can be commonly segmented into semantic parts, under significant
pose and appearance changes. Our methods, extensively evaluated qualitatively
and quantitatively, achieve state-of-the-art part co-segmentation results, and
competitive results with recent supervised methods trained specifically for
co-segmentation and correspondences.
- Abstract(参考訳): 我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を濃密な視覚ディスクリプタとして活用する。
自己教師型ViTモデル(DINO-ViT)から抽出された特徴は,いくつかの顕著な特性を示す。
(i)高空間解像度で強力な高レベル情報を符号化する特徴、すなわち、細かな空間的粒度で意味オブジェクトをキャプチャする特徴、
(ii) 符号化された意味情報は関連するが異なる対象カテゴリ(スーパーカテゴリ)間で共有される。
これらの特性により、コセグメンテーション、部分のコセグメンテーション、対応を含む様々なアプリケーションを容易にする強力な高密度なViT記述子を設計することができます。
これらのアプリケーションはクラス間タスクの領域へとさらに進み、関連するカテゴリからのオブジェクトを意味的な部分に分割し、重要なポーズと外観の変化の下で示す。
本手法は, 質的, 定量的に評価し, 最先端のコーセグメンテーション結果を達成し, 近年, コーセグメンテーションと対応のために特別に訓練された教師付き手法との競合結果を得た。
関連論文リスト
- Upsampling DINOv2 features for unsupervised vision tasks and weakly supervised materials segmentation [0.0]
自己監督型視覚変換器(ViT)は、オブジェクトのローカライゼーションやセグメンテーションといった下流タスクに関連する強力な意味情報と位置情報を含んでいる。
最近の研究は、これらの機能をクラスタリングやグラフパーティショニング、リージョン相関といった従来の手法と組み合わせて、追加のネットワークを微調整したり訓練したりすることなく、印象的なベースラインを達成している。
論文 参考訳(メタデータ) (2024-10-20T13:01:53Z) - PSVMA+: Exploring Multi-granularity Semantic-visual Adaption for Generalized Zero-shot Learning [116.33775552866476]
一般化ゼロショット学習(GZSL)は、目に見えない領域の知識を用いて、見えないものを識別する試みである。
GZSLは、属性の多様性とインスタンスの多様性により、視覚的セマンティックな対応が不十分である。
本稿では,不整合の解消に十分な視覚要素を収集できる多粒性プログレッシブ・セマンティック・視覚適応ネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T12:49:33Z) - Embedding Generalized Semantic Knowledge into Few-Shot Remote Sensing Segmentation [26.542268630980814]
リモートセンシング(RS)画像のためのFew-shot segmentation (FSS)は、限られた注釈付きサンプルからのサポート情報を活用して、新しいクラスのクエリセグメンテーションを実現する。
従来の取り組みは、制約された支援サンプルの集合からセグメント化を導く視覚的手がかりをマイニングすることに集中している。
本稿では,一般的な意味知識を効果的に活用する全体論的意味埋め込み(HSE)手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T14:26:04Z) - Exploiting Object-based and Segmentation-based Semantic Features for Deep Learning-based Indoor Scene Classification [0.5572976467442564]
本稿では,オブジェクト検出から得られたセマンティック情報とセマンティックセグメンテーション技術の両方を用いる。
セグメンテーションマスクを用いて,Hu-Moments Features (SHMFs)によって指定されたHu-Momentsベースのセグメンテーションカテゴリの形状特徴を提供する手法を提案する。
GOS$2$F$2$Appによって指定された3つのメインブランチネットワークも提案されている。
論文 参考訳(メタデータ) (2024-04-11T13:37:51Z) - N2F2: Hierarchical Scene Understanding with Nested Neural Feature Fields [112.02885337510716]
Nested Neural Feature Fields (N2F2)は、階層的な監視を用いて単一機能フィールドを学習する新しいアプローチである。
画像空間の任意のスケールで意味的に意味のある画素群を提供するために、2次元クラス非依存セグメンテーションモデルを利用する。
オープンな3次元セグメンテーションやローカライゼーションといったタスクにおいて,最先端のフィールド蒸留法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-03-16T18:50:44Z) - EAGLE: Eigen Aggregation Learning for Object-Centric Unsupervised Semantic Segmentation [5.476136494434766]
意味的類似性行列から派生した固有ベイズを通して意味的および構造的手がかりを提供する手法であるEiCueを紹介する。
オブジェクトレベルの表現を画像内および画像間の整合性で学習する。
COCO-Stuff、Cityscapes、Potsdam-3データセットの実験では、最先端のUSSの結果が示されている。
論文 参考訳(メタデータ) (2024-03-03T11:24:16Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Framework-agnostic Semantically-aware Global Reasoning for Segmentation [29.69187816377079]
本稿では,画像特徴を潜在表現に投影し,それら間の関係を推論するコンポーネントを提案する。
我々の設計では、活性化領域が空間的に不整合であることを保証することにより、潜在領域が意味概念を表現することを奨励している。
潜在トークンはセマンティックに解釈可能で多様性があり、下流タスクに転送可能な豊富な機能セットを提供します。
論文 参考訳(メタデータ) (2022-12-06T21:42:05Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。