論文の概要: PREMA: Part-based REcurrent Multi-view Aggregation Network for 3D Shape
Retrieval
- arxiv url: http://arxiv.org/abs/2111.04945v1
- Date: Tue, 9 Nov 2021 04:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 16:05:17.402351
- Title: PREMA: Part-based REcurrent Multi-view Aggregation Network for 3D Shape
Retrieval
- Title(参考訳): prema:3次元形状検索のための部分的再帰的マルチビューアグリゲーションネットワーク
- Authors: Jiongchao Jin, Huanqiang Xu, Pengliang Ji, Zehao Tang, Zhang Xiong
- Abstract要約: 本稿では,PREMA(Recurrent Multi-view Aggregation Network)を提案する。
対象を主に識別する部分によって認識するという事実に触発されて、異なる視点で再帰する識別部分である多視点コヒーレント部分(MCP)を定義する。
我々のPreMAは、MPPを確実に見つけ、効果的に利用し、堅牢な形状表現を構築することができる。
- 参考スコア(独自算出の注目度): 13.656494275215634
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose the Part-based Recurrent Multi-view Aggregation network(PREMA) to
eliminate the detrimental effects of the practical view defects, such as
insufficient view numbers, occlusions or background clutters, and also enhance
the discriminative ability of shape representations. Inspired by the fact that
human recognize an object mainly by its discriminant parts, we define the
multi-view coherent part(MCP), a discriminant part reoccurring in different
views. Our PREMA can reliably locate and effectively utilize MCPs to build
robust shape representations. Comprehensively, we design a novel Regional
Attention Unit(RAU) in PREMA to compute the confidence map for each view, and
extract MCPs by applying those maps to view features. PREMA accentuates MCPs
via correlating features of different views, and aggregates the part-aware
features for shape representation.
- Abstract(参考訳): 本稿では,ビュー数,咬合数,背景クラッタの不足などの実用的ビュー欠陥の悪影響を解消し,形状表現の識別能力を高めるための,部分的再帰的多視点集約ネットワーク(prema)を提案する。
人間が主に識別部によって物体を認識するという事実に着想を得て,多視点コヒーレント部分(mcp)を異なる視点で再帰する判別部と定義する。
当社のpremaは,mcpを用いてロバストな形状表現を構築できる。
総合的に,各ビューに対する信頼度マップを計算し,特徴量にそれらのマップを適用してMPPを抽出するために,PreMAに新しい地域意識ユニット(RAU)を設計する。
PreMAは異なるビューの特徴を関連付けてMPPをアクセントし、形状表現のための部分認識の特徴を集約する。
関連論文リスト
- Unsupervised Part Discovery via Dual Representation Alignment [31.100169532078095]
オブジェクト部分は、様々な下流タスクにおいて重要な中間表現として機能します。
これまでの研究によると、Vision Transformerはラベルなしでインスタンスレベルの注意を学習できる。
本稿では,新しいパラダイムを用いた非教師なし部分特異的アテンション学習を実現する。
論文 参考訳(メタデータ) (2024-08-15T12:11:20Z) - Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - URRL-IMVC: Unified and Robust Representation Learning for Incomplete Multi-View Clustering [28.776476995363048]
不完全なマルチビュークラスタリングのための統一表現学習(URRL-IMVC)を提案する。
URRL-IMVCは、複数のビューや隣接するサンプルからの情報を統合することで、失われた状態を見るのに堅牢な統合埋め込みを直接学習する。
提案するURRL-IMVCフレームワークを様々なベンチマークデータセット上で広範囲に評価し,その最先端性能を実証した。
論文 参考訳(メタデータ) (2024-07-12T09:35:25Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Rethinking Multi-view Representation Learning via Distilled Disentangling [34.14711778177439]
マルチビュー表現学習は、多様なデータソースからビュー一貫性とビュー固有性の両方を持つ堅牢な表現を導出することを目的としている。
本稿では、この領域における既存のアプローチの詳細な分析を行い、ビュー一貫性とビュー固有表現の冗長性を強調した。
我々は,多視点表現学習のための革新的枠組みを提案し,これを「蒸留解離」と呼ぶ手法を取り入れた。
論文 参考訳(メタデータ) (2024-03-16T11:21:24Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Deep Partial Multi-View Learning [94.39367390062831]
クロスパーシャル・マルチビュー・ネットワーク(CPM-Nets)と呼ばれる新しいフレームワークを提案する。
我々はまず、多視点表現に対する完全性と汎用性の形式的な定義を提供する。
そして、理論的に学習された潜在表現の多元性を証明する。
論文 参考訳(メタデータ) (2020-11-12T02:29:29Z) - Pose-guided Visible Part Matching for Occluded Person ReID [80.81748252960843]
本稿では、ポーズ誘導による特徴の識別を共同で学習し、その部分の可視性を自己判断する Pose-Guided Visible Part Matching (PVPM) 法を提案する。
実験結果から,提案手法は最先端手法と競合する性能を示した。
論文 参考訳(メタデータ) (2020-04-01T04:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。