論文の概要: Multiple Discrimination and Pairwise CNN for View-based 3D Object
Retrieval
- arxiv url: http://arxiv.org/abs/2002.11977v1
- Date: Thu, 27 Feb 2020 09:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 08:23:18.399492
- Title: Multiple Discrimination and Pairwise CNN for View-based 3D Object
Retrieval
- Title(参考訳): ビューベース3次元オブジェクト検索のための多重識別とペアワイズCNN
- Authors: Z. Gao, K.X Xue, S.H Wan
- Abstract要約: 本稿では,3次元オブジェクト検索のためのMDPCNN (Multi-view Discrimination and Pairwise CNN) を提案する。
SliceレイヤとConcatレイヤを追加することで、複数のバッチと複数のビューを同時に入力することができる。
3Dオブジェクトの検索において,最先端のアルゴリズムよりも顕著な性能を実現することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development and wide application of computer, camera device,
network and hardware technology, 3D object (or model) retrieval has attracted
widespread attention and it has become a hot research topic in the computer
vision domain. Deep learning features already available in 3D object retrieval
have been proven to be better than the retrieval performance of hand-crafted
features. However, most existing networks do not take into account the impact
of multi-view image selection on network training, and the use of contrastive
loss alone only forcing the same-class samples to be as close as possible. In
this work, a novel solution named Multi-view Discrimination and Pairwise CNN
(MDPCNN) for 3D object retrieval is proposed to tackle these issues. It can
simultaneously input of multiple batches and multiple views by adding the Slice
layer and the Concat layer. Furthermore, a highly discriminative network is
obtained by training samples that are not easy to be classified by clustering.
Lastly, we deploy the contrastive-center loss and contrastive loss as the
optimization objective that has better intra-class compactness and inter-class
separability. Large-scale experiments show that the proposed MDPCNN can achieve
a significant performance over the state-of-the-art algorithms in 3D object
retrieval.
- Abstract(参考訳): コンピュータ、カメラデバイス、ネットワーク、ハードウェア技術の急速な発展と応用により、3dオブジェクト(またはモデル)の検索が広く注目され、コンピュータビジョンの分野ではホットな研究テーマとなっている。
すでに3Dオブジェクト検索で利用できるディープラーニング機能は、手作り機能の検索性能よりも優れていることが証明されている。
しかし、既存のネットワークのほとんどは、ネットワークトレーニングにおけるマルチビュー画像選択の影響を考慮せず、コントラスト損失のみを使用することで、同じクラスのサンプルを可能な限り近づけることしかできない。
本研究では,3次元オブジェクト検索のためのMDPCNN (Multi-view Discrimination and Pairwise CNN) という新しい手法を提案する。
スライス層とconcat層を追加することで、複数のバッチと複数のビューを同時に入力することができる。
さらに、クラスタリングによって分類しにくいサンプルをトレーニングすることで、高い識別性ネットワークが得られる。
最後に,クラス内コンパクト性とクラス間分離性を向上する最適化目的として,コントラスト中心損失とコントラスト損失を配置する。
大規模実験により,提案したMDPCNNは3次元オブジェクト検索における最先端のアルゴリズムよりも高い性能が得られることが示された。
関連論文リスト
- M&M3D: Multi-Dataset Training and Efficient Network for Multi-view 3D
Object Detection [2.5158048364984564]
カメラのみのデータとBird's-Eye-View Mapを用いたマルチビュー3Dオブジェクト検出のためのネットワーク構造を提案した。
私の仕事は、現在の重要なドメイン適応とビジュアルデータ転送に基づいています。
本研究は,3次元情報を利用可能な意味情報として利用し,視覚的言語伝達設計にブレンドした2次元多視点画像特徴について述べる。
論文 参考訳(メタデータ) (2023-11-02T04:28:51Z) - SCA-PVNet: Self-and-Cross Attention Based Aggregation of Point Cloud and
Multi-View for 3D Object Retrieval [8.74845857766369]
大規模データセットを用いた多モード3Dオブジェクト検索はめったに行われない。
本稿では,3次元オブジェクト検索のための点群と多視点画像の自己・横断的アグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-07-20T05:46:32Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - MVTN: Learning Multi-View Transformations for 3D Understanding [60.15214023270087]
本稿では,3次元形状認識のための最適視点を決定するために,可変レンダリングを用いたマルチビュー変換ネットワーク(MVTN)を提案する。
MVTNは3次元形状認識のためのマルチビューネットワークでエンドツーエンドに訓練することができる。
提案手法は,複数のベンチマークによる3次元分類と形状検索における最先端性能を示す。
論文 参考訳(メタデータ) (2022-12-27T12:09:16Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Multimodal Semi-Supervised Learning for 3D Objects [19.409295848915388]
本稿では,3次元の分類処理と検索処理の両方において,異なる3次元データのモデルのコヒーレンスを用いてデータ効率を向上させる方法について検討する。
本稿では、インスタンスレベルの一貫性制約を導入し、新しいマルチモーダル・コントラッシブ・プロトタイプ(M2CP)の損失を減らし、新しいマルチモーダル・セミ教師付き学習フレームワークを提案する。
提案するフレームワークは,モデルNet10およびモデルNet40データセットにおいて,分類タスクと検索タスクの両方において,最先端のすべての処理性能を大幅に上回っている。
論文 参考訳(メタデータ) (2021-10-22T05:33:16Z) - Object Localization Through a Single Multiple-Model Convolutional Neural
Network with a Specific Training Approach [0.0]
光畳み込みニューラルネットワーク(cnn)に対して,画像に対する関心領域を決定するための特別訓練手法を提案する。
ほぼ全てのCNNベースの検出器は、固定された入力サイズ画像を使用し、様々なオブジェクトサイズを扱う場合、性能が低下する可能性がある。
論文 参考訳(メタデータ) (2021-03-24T16:52:01Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Tasks Integrated Networks: Joint Detection and Retrieval for Image
Search [99.49021025124405]
多くの現実世界の探索シナリオ(例えばビデオ監視)では、オブジェクトは正確に検出または注釈付けされることはめったにない。
まず、エンド・ツー・エンド統合ネット(I-Net)を紹介します。
さらに,2つの新しいコントリビューションを行うDC-I-Netという改良されたI-Netを提案する。
論文 参考訳(メタデータ) (2020-09-03T03:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。