論文の概要: Visual Object Tracking by Segmentation with Graph Convolutional Network
- arxiv url: http://arxiv.org/abs/2009.02523v2
- Date: Tue, 8 Sep 2020 01:04:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 21:01:12.256217
- Title: Visual Object Tracking by Segmentation with Graph Convolutional Network
- Title(参考訳): グラフ畳み込みネットワークを用いたセグメンテーションによる視覚物体追跡
- Authors: Bo Jiang, Panpan Zhang, Lili Huang
- Abstract要約: グラフ畳み込みネットワーク(GCN)モデルを用いて,スーパーピクセルベースのオブジェクトトラッキングを提案する。
提案モデルは,i)ラベル線形予測とi)各スーパーピクセルの構造認識特徴情報を統合した,汎用的なエンドツーエンドフレームワークを提供する。
- 参考スコア(独自算出の注目度): 7.729569666460712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segmentation-based tracking has been actively studied in computer vision and
multimedia. Superpixel based object segmentation and tracking methods are
usually developed for this task. However, they independently perform feature
representation and learning of superpixels which may lead to sub-optimal
results. In this paper, we propose to utilize graph convolutional network (GCN)
model for superpixel based object tracking. The proposed model provides a
general end-to-end framework which integrates i) label linear prediction, and
ii) structure-aware feature information of each superpixel together to obtain
object segmentation and further improves the performance of tracking. The main
benefits of the proposed GCN method have two main aspects. First, it provides
an effective end-to-end way to exploit both spatial and temporal consistency
constraint for target object segmentation. Second, it utilizes a mixed graph
convolution module to learn a context-aware and discriminative feature for
superpixel representation and labeling. An effective algorithm has been
developed to optimize the proposed model. Extensive experiments on five
datasets demonstrate that our method obtains better performance against
existing alternative methods.
- Abstract(参考訳): セグメンテーションに基づくトラッキングはコンピュータビジョンとマルチメディアで積極的に研究されている。
スーパーピクセルベースのオブジェクトセグメンテーションとトラッキング手法は通常、このタスクのために開発される。
しかし、それらが独立にスーパーピクセルの特徴表現と学習を行い、それが準最適結果につながる可能性がある。
本稿では,スーパーピクセルに基づく物体追跡のためのグラフ畳み込みネットワーク(gcn)モデルを提案する。
提案モデルは、統合する汎用的なエンドツーエンドフレームワークを提供する
一 線形予測のラベル及び
二 各スーパーピクセルの構造認識特徴情報を組み合わせてオブジェクトセグメンテーションを取得し、さらに追跡性能を向上させること。
提案したGCN法の主な利点は2つある。
まず、ターゲットオブジェクトセグメンテーションのための空間的および時間的一貫性の制約を効果的に活用する方法を提供する。
第2に、混合グラフ畳み込みモジュールを使用して、スーパーピクセル表現とラベリングのためのコンテキスト認識および識別機能を学ぶ。
提案モデルの最適化に有効なアルゴリズムが開発された。
5つのデータセットに関する広範囲な実験により、既存の代替手法よりも優れた性能が得られることを示した。
関連論文リスト
- GLCONet: Learning Multi-source Perception Representation for Camouflaged Object Detection [23.872633359324098]
我々はGLCONetと呼ばれる新しいグローバルローカル協調最適化ネットワークを提案する。
本稿では、まず、局所的な詳細とグローバルな長距離関係を同時にモデル化するための協調最適化戦略を設計する。
実験により、異なるバックボーンを持つGLCONet法は、画像中の潜在的に重要なピクセルを効果的に活性化できることが示されている。
論文 参考訳(メタデータ) (2024-09-15T02:26:17Z) - Graph Information Bottleneck for Remote Sensing Segmentation [8.879224757610368]
本稿では、画像をグラフ構造として扱い、リモートセンシングセグメンテーションのための単純なコントラスト視覚GNNアーキテクチャを提案する。
具体的には,ノードマップとエッジマップのグラフビューを構築し,最適なグラフ構造表現を得る。
UNetの畳み込みモジュールをSC-ViGモジュールに置き換え、セグメンテーションと分類タスクを完成させる。
論文 参考訳(メタデータ) (2023-12-05T07:23:22Z) - Pixel-Level Clustering Network for Unsupervised Image Segmentation [3.69853388955692]
画像の領域分割のためのピクセルレベルのクラスタリングフレームワークを,地上の真理アノテーションを使わずに提案する。
また、各スーパーピクセル間の一貫性、隣接するスーパーピクセル間の相似性/相似性、画像間の構造的類似性を利用したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-10-24T23:06:29Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Rethinking Unsupervised Neural Superpixel Segmentation [6.123324869194195]
CNNによるスーパーピクセルセグメンテーションのための教師なし学習が研究されている。
このようなネットワークの有効性を改善するために,3つの重要な要素を提案する。
BSDS500データセットを実験した結果,提案手法の意義を示す証拠が得られた。
論文 参考訳(メタデータ) (2022-06-21T09:30:26Z) - Efficient Multiscale Object-based Superpixel Framework [62.48475585798724]
我々は,SICLE(Iterative CLEarcutting)によるスーパーピクセルという,新しいスーパーピクセルフレームワークを提案する。
SICLEは、複数スケールのセグメンテーションをオンザフライで生成できるオブジェクト情報を利用する。
これは最近のスーパーピクセル法を一般化し、複数のデライン化指標に従って効率と効率性に関する最先端のアプローチを超越している。
論文 参考訳(メタデータ) (2022-04-07T15:59:38Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z) - Unsupervised Semantic Segmentation by Contrasting Object Mask Proposals [78.12377360145078]
画素埋め込みを学習するために、コントラスト最適化の目的として、予め決められた事前を取り入れた新しい2段階フレームワークを導入する。
これは、プロキシタスクやエンドツーエンドのクラスタリングに依存する既存の作業から大きく逸脱している。
特に、PASCALでラベル付き例の1%だけを用いて学習した表現を微調整すると、7.1% mIoUで教師付き ImageNet の事前トレーニングを上回ります。
論文 参考訳(メタデータ) (2021-02-11T18:54:47Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。