論文の概要: PREMA: Part-based REcurrent Multi-view Aggregation Network for 3D Shape
Retrieval
- arxiv url: http://arxiv.org/abs/2111.04945v1
- Date: Tue, 9 Nov 2021 04:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 16:05:17.402351
- Title: PREMA: Part-based REcurrent Multi-view Aggregation Network for 3D Shape
Retrieval
- Title(参考訳): prema:3次元形状検索のための部分的再帰的マルチビューアグリゲーションネットワーク
- Authors: Jiongchao Jin, Huanqiang Xu, Pengliang Ji, Zehao Tang, Zhang Xiong
- Abstract要約: 本稿では,PREMA(Recurrent Multi-view Aggregation Network)を提案する。
対象を主に識別する部分によって認識するという事実に触発されて、異なる視点で再帰する識別部分である多視点コヒーレント部分(MCP)を定義する。
我々のPreMAは、MPPを確実に見つけ、効果的に利用し、堅牢な形状表現を構築することができる。
- 参考スコア(独自算出の注目度): 13.656494275215634
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose the Part-based Recurrent Multi-view Aggregation network(PREMA) to
eliminate the detrimental effects of the practical view defects, such as
insufficient view numbers, occlusions or background clutters, and also enhance
the discriminative ability of shape representations. Inspired by the fact that
human recognize an object mainly by its discriminant parts, we define the
multi-view coherent part(MCP), a discriminant part reoccurring in different
views. Our PREMA can reliably locate and effectively utilize MCPs to build
robust shape representations. Comprehensively, we design a novel Regional
Attention Unit(RAU) in PREMA to compute the confidence map for each view, and
extract MCPs by applying those maps to view features. PREMA accentuates MCPs
via correlating features of different views, and aggregates the part-aware
features for shape representation.
- Abstract(参考訳): 本稿では,ビュー数,咬合数,背景クラッタの不足などの実用的ビュー欠陥の悪影響を解消し,形状表現の識別能力を高めるための,部分的再帰的多視点集約ネットワーク(prema)を提案する。
人間が主に識別部によって物体を認識するという事実に着想を得て,多視点コヒーレント部分(mcp)を異なる視点で再帰する判別部と定義する。
当社のpremaは,mcpを用いてロバストな形状表現を構築できる。
総合的に,各ビューに対する信頼度マップを計算し,特徴量にそれらのマップを適用してMPPを抽出するために,PreMAに新しい地域意識ユニット(RAU)を設計する。
PreMAは異なるビューの特徴を関連付けてMPPをアクセントし、形状表現のための部分認識の特徴を集約する。
関連論文リスト
- Balanced Multi-view Clustering [56.17836963920012]
マルチビュークラスタリング(MvC)は、さまざまなビューからの情報を統合して、基盤となるデータ構造をキャプチャするモデルの能力を高めることを目的としている。
MvCで広く使われているジョイントトレーニングパラダイムは、多視点情報を十分に活用していない可能性がある。
本稿では,ビュー固有のコントラスト正規化(VCR)を導入し,各ビューの最適化を最適化する新しいマルチビュークラスタリング(BMvC)手法を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:42:47Z) - Unsupervised Part Discovery via Dual Representation Alignment [31.100169532078095]
オブジェクト部分は、様々な下流タスクにおいて重要な中間表現として機能します。
これまでの研究によると、Vision Transformerはラベルなしでインスタンスレベルの注意を学習できる。
本稿では,新しいパラダイムを用いた非教師なし部分特異的アテンション学習を実現する。
論文 参考訳(メタデータ) (2024-08-15T12:11:20Z) - Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - URRL-IMVC: Unified and Robust Representation Learning for Incomplete Multi-View Clustering [28.776476995363048]
不完全なマルチビュークラスタリングのための統一表現学習(URRL-IMVC)を提案する。
URRL-IMVCは、複数のビューや隣接するサンプルからの情報を統合することで、失われた状態を見るのに堅牢な統合埋め込みを直接学習する。
提案するURRL-IMVCフレームワークを様々なベンチマークデータセット上で広範囲に評価し,その最先端性能を実証した。
論文 参考訳(メタデータ) (2024-07-12T09:35:25Z) - Unity in Diversity: Multi-expert Knowledge Confrontation and Collaboration for Generalizable Vehicle Re-identification [60.20318058777603]
一般化可能な車両再識別(ReID)は、微調整や再訓練を必要とせず、未知のターゲットドメインに適応可能なモデルの開発を目指している。
これまでの研究は主に、ソースドメイン間のデータ分散を調整することで、ドメイン不変の機能の抽出に重点を置いてきた。
そこで本研究では,この問題を解決するために,2段階のMulti-expert Knowledge Confrontation and Collaboration(MiKeCoCo)手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T04:06:39Z) - Rethinking Multi-view Representation Learning via Distilled Disentangling [34.14711778177439]
マルチビュー表現学習は、多様なデータソースからビュー一貫性とビュー固有性の両方を持つ堅牢な表現を導出することを目的としている。
本稿では、この領域における既存のアプローチの詳細な分析を行い、ビュー一貫性とビュー固有表現の冗長性を強調した。
我々は,多視点表現学習のための革新的枠組みを提案し,これを「蒸留解離」と呼ぶ手法を取り入れた。
論文 参考訳(メタデータ) (2024-03-16T11:21:24Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。