論文の概要: Deep Grouping Model for Unified Perceptual Parsing
- arxiv url: http://arxiv.org/abs/2003.11647v1
- Date: Wed, 25 Mar 2020 21:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 03:43:04.916747
- Title: Deep Grouping Model for Unified Perceptual Parsing
- Title(参考訳): 統合知覚解析のためのディープグルーピングモデル
- Authors: Zhiheng Li, Wenxuan Bao, Jiayang Zheng, Chenliang Xu
- Abstract要約: 知覚に基づくグループ化プロセスは階層的および構成的イメージ表現を生成する。
本稿では,2種類の表現を密に結合したディープグルーピングモデル(DGM)を提案し,特徴交換のためのボトムアップとトップダウンプロセスを定義する。
このモデルは、他の文脈ベースセグメンテーションモデルと比較して計算オーバーヘッドが小さく、最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 36.73032339428497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The perceptual-based grouping process produces a hierarchical and
compositional image representation that helps both human and machine vision
systems recognize heterogeneous visual concepts. Examples can be found in the
classical hierarchical superpixel segmentation or image parsing works. However,
the grouping process is largely overlooked in modern CNN-based image
segmentation networks due to many challenges, including the inherent
incompatibility between the grid-shaped CNN feature map and the
irregular-shaped perceptual grouping hierarchy. Overcoming these challenges, we
propose a deep grouping model (DGM) that tightly marries the two types of
representations and defines a bottom-up and a top-down process for feature
exchanging. When evaluating the model on the recent Broden+ dataset for the
unified perceptual parsing task, it achieves state-of-the-art results while
having a small computational overhead compared to other contextual-based
segmentation models. Furthermore, the DGM has better interpretability compared
with modern CNN methods.
- Abstract(参考訳): 知覚に基づくグループ化プロセスは、人間と機械の視覚システムが異種視覚概念を認識するのに役立つ階層的および構成的イメージ表現を生成する。
古典的な階層的スーパーピクセルセグメンテーションや画像解析の作業に例がある。
しかし、現代のcnnベースのイメージセグメンテーションネットワークでは、グリッド型cnn特徴マップと不規則型知覚型グループ化階層との固有の非互換性など、多くの課題から、グループ化プロセスは見過ごされている。
これらの課題を克服し、我々は2種類の表現を密に結合し、機能交換のためのボトムアップとトップダウンプロセスを定義するディープグルーピングモデル(DGM)を提案する。
統一知覚解析タスクのための最近のbroden+データセット上でモデルを評価する際、他の文脈に基づくセグメンテーションモデルに比べて計算オーバーヘッドが小さく、最先端の結果が得られる。
さらに、DGMは現代のCNN法よりも解釈性が高い。
関連論文リスト
- Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Grid Jigsaw Representation with CLIP: A New Perspective on Image
Clustering [37.15595383168132]
GJR(Grid Jigsaw Representation)と呼ばれる、画像クラスタリングのためのJigsawベースの戦略手法。
GJRモジュールは、さまざまな深層畳み込みネットワークに付加され、幅広いベンチマークデータセットで大幅に改善された。
実験の結果,ACC,NMI,ARIの3つの指標と超高速収束速度に対するクラスタリング作業の有効性が示された。
論文 参考訳(メタデータ) (2023-10-27T03:07:05Z) - IDRNet: Intervention-Driven Relation Network for Semantic Segmentation [34.09179171102469]
同時進行の視覚パターンは、画素関係モデリングが密接な予測タスクを促進することを示唆している。
印象的な結果にもかかわらず、既存のパラダイムは、しばしば不適切または効果的な文脈情報集約に悩まされる。
我々は,textbfIntervention-textbfDriven textbfRelation textbfNetworkを提案する。
論文 参考訳(メタデータ) (2023-10-16T18:37:33Z) - Clustering by Maximizing Mutual Information Across Views [62.21716612888669]
本稿では,共同表現学習とクラスタリングを組み合わせた画像クラスタリングのための新しいフレームワークを提案する。
提案手法は,様々な画像データセットにおける最先端の単一ステージクラスタリング手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-24T15:36:49Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z) - Network Bending: Expressive Manipulation of Deep Generative Models [0.2062593640149624]
ネットワーク曲げと呼ばれる深層生成モデルを操作するための新しいフレームワークを提案する。
生成過程において意味論的に意味のある側面を直接操作できるだけでなく、幅広い表現的な結果を得ることができるかを示す。
論文 参考訳(メタデータ) (2020-05-25T21:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。