論文の概要: Info3D: Representation Learning on 3D Objects using Mutual Information
Maximization and Contrastive Learning
- arxiv url: http://arxiv.org/abs/2006.02598v2
- Date: Sat, 22 Aug 2020 22:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 09:50:20.457375
- Title: Info3D: Representation Learning on 3D Objects using Mutual Information
Maximization and Contrastive Learning
- Title(参考訳): info3d:相互情報最大化とコントラスト学習を用いた3次元オブジェクト表現学習
- Authors: Aditya Sanghi
- Abstract要約: 本稿では,3次元形状に関するInfoMaxと対照的な学習原理を拡張することを提案する。
我々は3Dオブジェクトとその「チャンク」間の相互情報を最大化して、整列したデータセットにおける表現を改善することができることを示す。
- 参考スコア(独自算出の注目度): 8.448611728105513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major endeavor of computer vision is to represent, understand and extract
structure from 3D data. Towards this goal, unsupervised learning is a powerful
and necessary tool. Most current unsupervised methods for 3D shape analysis use
datasets that are aligned, require objects to be reconstructed and suffer from
deteriorated performance on downstream tasks. To solve these issues, we propose
to extend the InfoMax and contrastive learning principles on 3D shapes. We show
that we can maximize the mutual information between 3D objects and their
"chunks" to improve the representations in aligned datasets. Furthermore, we
can achieve rotation invariance in SO${(3)}$ group by maximizing the mutual
information between the 3D objects and their geometric transformed versions.
Finally, we conduct several experiments such as clustering, transfer learning,
shape retrieval, and achieve state of art results.
- Abstract(参考訳): コンピュータビジョンの主な取り組みは、3dデータから構造を表現、理解、抽出することである。
この目標に向けて、教師なし学習は強力で必要なツールです。
現在、教師なしの3d形状解析のほとんどの方法は、アライン化され、オブジェクトを再構築し、下流タスクのパフォーマンス低下に苦しむデータセットを使用する。
これらの問題を解決するため,我々はインフォマックスとコントラスト学習の原理を3次元形状に拡張する。
3dオブジェクトとその「チャンク」間の相互情報を最大化することで、アライメントされたデータセットの表現を改善することができることを示す。
さらに、SO${(3)}$群における回転不変性は、3Dオブジェクトとその幾何学変換バージョン間の相互情報を最大化することで実現できる。
最後に,クラスタリング,移動学習,形状検索,技術成果の達成など,いくつかの実験を行った。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Learning Feature Aggregation for Deep 3D Morphable Models [57.1266963015401]
階層レベルで機能集約を向上するためのマッピング行列を学習するための注意に基づくモジュールを提案する。
実験の結果,マッピング行列のエンドツーエンドトレーニングにより,様々な3次元形状データセットの最先端結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-05-05T16:41:00Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。