論文の概要: 3D Shape Knowledge Graph for Cross-domain and Cross-modal 3D Shape
Retrieval
- arxiv url: http://arxiv.org/abs/2210.15136v1
- Date: Thu, 27 Oct 2022 02:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:21:41.676871
- Title: 3D Shape Knowledge Graph for Cross-domain and Cross-modal 3D Shape
Retrieval
- Title(参考訳): クロスドメインおよびクロスモーダル3次元形状検索のための3次元形状知識グラフ
- Authors: Weizhi Nie, Rihao Chang, Tong Hao, Anan Liu
- Abstract要約: 本稿では,3次元あるいは2次元の実体を表現するための基本要素として,幾何学的単語という革新的な概念を提案する。
すべての3Dまたは2Dエンティティは、その幾何学用語を3D知識グラフに配置することができ、クロスドメインとクロスモーダルデータのリンクとして機能する。
- 参考スコア(独自算出の注目度): 52.79345931655626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the development of 3D modeling and fabrication, 3D shape retrieval has
become a hot topic. In recent years, several strategies have been put forth to
address this retrieval issue. However, it is difficult for them to handle
cross-modal 3D shape retrieval because of the natural differences between
modalities. In this paper, we propose an innovative concept, namely, geometric
words, which is regarded as the basic element to represent any 3D or 2D entity
by combination, and assisted by which, we can simultaneously handle
cross-domain or cross-modal retrieval problems. First, to construct the
knowledge graph, we utilize the geometric word as the node, and then use the
category of the 3D shape as well as the attribute of the geometry to bridge the
nodes. Second, based on the knowledge graph, we provide a unique way for
learning each entity's embedding. Finally, we propose an effective similarity
measure to handle the cross-domain and cross-modal 3D shape retrieval.
Specifically, every 3D or 2D entity could locate its geometric terms in the 3D
knowledge graph, which serve as a link between cross-domain and cross-modal
data. Thus, our approach can achieve the cross-domain and cross-modal 3D shape
retrieval at the same time. We evaluated our proposed method on the ModelNet40
dataset and ShapeNetCore55 dataset for both the 3D shape retrieval task and
cross-domain 3D shape retrieval task. The classic cross-modal dataset (MI3DOR)
is utilized to evaluate cross-modal 3D shape retrieval. Experimental results
and comparisons with state-of-the-art methods illustrate the superiority of our
approach.
- Abstract(参考訳): 3次元モデリングと製作の発展に伴い、3次元形状検索がホットな話題となっている。
近年,この検索問題に対処する戦略がいくつか提案されている。
しかし、モダリティの自然な違いから、モダリティ間の3次元形状検索を扱うことは困難である。
本稿では,任意の3次元や2次元の実体を組み合わせて表現する基本要素である幾何学的単語を,同時にクロスドメインやクロスモーダル検索問題を扱うことができる,という革新的な概念を提案する。
まず、知識グラフを構築するために、幾何学的単語をノードとして使用し、次に3d形状のカテゴリと幾何学的属性を使用してノードを橋渡しする。
次に、知識グラフに基づいて、各エンティティの埋め込みを学習するユニークな方法を提供します。
最後に,クロスドメインおよびクロスモーダル3次元形状検索を扱うための効果的な類似性尺度を提案する。
具体的には、すべての3Dまたは2Dエンティティは、その幾何学用語を3D知識グラフに配置することができる。
そこで本手法は,クロスドメインとクロスモーダルな3次元形状検索を同時に実現する。
モデルNet40データセットとShapeNetCore55データセットを3次元形状検索タスクとクロスドメイン形状検索タスクの両方で評価した。
古典的クロスモーダルデータセット(MI3DOR)を用いて、クロスモーダルな3次元形状検索を評価する。
実験結果と最先端手法との比較により,本手法の優位性を示した。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - COM3D: Leveraging Cross-View Correspondence and Cross-Modal Mining for 3D Retrieval [21.070154402838906]
本稿では,クロスビュー対応とクロスモーダルマイニングを活用して検索性能を向上させるCOM3Dを提案する。
特に、シーン表現変換器によって3次元特徴を増強し、3次元形状のクロスビュー対応特徴を生成する。
さらに,セミハードな負のサンプルマイニング法に基づいて,クロスモーダルマッチングプロセスの最適化を提案する。
論文 参考訳(メタデータ) (2024-05-07T08:16:13Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Zero in on Shape: A Generic 2D-3D Instance Similarity Metric learned
from Synthetic Data [3.71630298053787]
本稿では,RGB画像と非テクスチャ型3Dモデルとを表現形状の類似性で比較するネットワークアーキテクチャを提案する。
我々のシステムはゼロショット検索に最適化されており、訓練で示されることのない形状を認識することができる。
論文 参考訳(メタデータ) (2021-08-09T14:44:08Z) - Joint Deep Multi-Graph Matching and 3D Geometry Learning from
Inhomogeneous 2D Image Collections [57.60094385551773]
非均質な画像コレクションから変形可能な3Dジオメトリモデルを学ぶためのトレーニング可能なフレームワークを提案する。
さらに,2次元画像で表現された物体の3次元形状も取得する。
論文 参考訳(メタデータ) (2021-03-31T17:25:36Z) - Hard Example Generation by Texture Synthesis for Cross-domain Shape
Similarity Learning [97.56893524594703]
画像に基づく3次元形状検索(IBSR)は、与えられた2次元画像の対応する3次元形状を、大きな3次元形状データベースから見つけることを目的としている。
いくつかの適応技法によるメートル法学習は、類似性学習を形作るための自然な解決策のようです。
テクスチャ合成を応用した幾何中心の多視点メトリック学習フレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-23T08:52:00Z) - RISA-Net: Rotation-Invariant Structure-Aware Network for Fine-Grained 3D
Shape Retrieval [46.02391761751015]
きめ細かい3D形状の検索は、同じクラスに属するモデルを持つレポジトリのクエリ形状に似た3D形状の検索を目的としている。
回転不変な3次元形状記述子を学習する新しいディープアーキテクチャ RISA-Net を提案する。
本手法は,3次元形状の最終コンパクト潜時特徴を生成する際に,各部分の幾何学的・構造的情報の重要性を学習することができる。
論文 参考訳(メタデータ) (2020-10-02T13:06:12Z) - Info3D: Representation Learning on 3D Objects using Mutual Information
Maximization and Contrastive Learning [8.448611728105513]
本稿では,3次元形状に関するInfoMaxと対照的な学習原理を拡張することを提案する。
我々は3Dオブジェクトとその「チャンク」間の相互情報を最大化して、整列したデータセットにおける表現を改善することができることを示す。
論文 参考訳(メタデータ) (2020-06-04T00:30:26Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - Learning 3D Human Shape and Pose from Dense Body Parts [117.46290013548533]
本研究では,3次元の人体形状を学習し,身体部分の密接な対応からポーズをとるために,分解・集約ネットワーク(DaNet)を提案する。
ローカルストリームからのメッセージは集約され、回転ベースのポーズの堅牢な予測が強化される。
提案手法は,Human3.6M,UP3D,COCO,3DPWを含む屋内および実世界のデータセットで検証される。
論文 参考訳(メタデータ) (2019-12-31T15:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。