論文の概要: ULIP-2: Towards Scalable Multimodal Pre-training for 3D Understanding
- arxiv url: http://arxiv.org/abs/2305.08275v2
- Date: Thu, 18 May 2023 19:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 18:06:49.652536
- Title: ULIP-2: Towards Scalable Multimodal Pre-training for 3D Understanding
- Title(参考訳): ULIP-2:3次元理解のためのスケーラブルなマルチモーダル事前学習を目指して
- Authors: Le Xue, Ning Yu, Shu Zhang, Junnan Li, Roberto Mart\'in-Mart\'in,
Jiajun Wu, Caiming Xiong, Ran Xu, Juan Carlos Niebles, Silvio Savarese
- Abstract要約: 本研究では,3次元オブジェクトの汎用言語を自動生成するトリオモーダル事前学習フレームワークを開発した。
3Dアノテーションを一切必要とせず、従って大規模なデータセットにスケーラブルである。
ModelNet40では、下流のゼロショット分類が大幅に改善されている。
現実世界のScanObjectNNベンチマークでは、91.5%の精度で、パラメータはわずか1.4万である。
- 参考スコア(独自算出の注目度): 103.58388549764302
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advancements in multimodal pre-training methods have shown promising
efficacy in 3D representation learning by aligning multimodal features across
3D shapes, their 2D counterparts, and language descriptions. However, the
methods used by existing multimodal pre-training frameworks to gather
multimodal data for 3D applications lack scalability and comprehensiveness,
potentially constraining the full potential of multimodal learning. The main
bottleneck lies in the language modality's scalability and comprehensiveness.
To address this, we introduce ULIP-2, a tri-modal pre-training framework that
leverages state-of-the-art large multimodal models to automatically generate
holistic language counterparts for 3D objects. It does not require any 3D
annotations, and is therefore scalable to large datasets. We conduct
experiments on two large-scale 3D datasets, Objaverse and ShapeNet, and augment
them with tri-modal datasets of 3D point clouds, images, and language for
training ULIP-2. ULIP-2 achieves significant improvements on downstream
zero-shot classification on ModelNet40 (74.0% in top-1 accuracy); on the
real-world ScanObjectNN benchmark, it obtains 91.5% in overall accuracy with
only 1.4 million parameters, signifying a breakthrough in scalable multimodal
3D representation learning without human 3D annotations. The code, along with
the generated tri-modal datasets, can be found at
https://github.com/salesforce/ULIP.
- Abstract(参考訳): 近年のマルチモーダル事前学習法は, 3次元形状, 2次元形状, 言語記述の多モーダル特徴の整合による3次元表現学習において有望な効果を示した。
しかし、3Dアプリケーションのためのマルチモーダルデータを収集するために既存のマルチモーダル事前学習フレームワークが使用している手法はスケーラビリティと包括性に欠けており、多モーダル学習の可能性を最大限に制限する可能性がある。
主なボトルネックは、言語モダリティのスケーラビリティと包括性にある。
そこで本研究では,最先端の大規模マルチモーダルモデルを利用して3次元オブジェクトの汎用言語を自動生成する,三モード事前学習フレームワークULIP-2を紹介する。
3Dアノテーションを必要としないため、大規模なデータセットにスケーラブルである。
我々は,2つの大規模3DデータセットであるObjaverseとShapeNetで実験を行い,ULIP-2をトレーニングするための3Dポイントクラウド,画像,言語をトリモーダルデータセットで拡張した。
ULIP-2は、ModelNet40の下流ゼロショット分類(トップ1の精度で74.0%)を大幅に改善し、現実世界のScanObjectNNベンチマークでは91.5%の精度で14万のパラメータしか取得できず、人間の3Dアノテーションなしでスケーラブルなマルチモーダル3D表現学習のブレークスルーを示す。
生成されたトリモーダルデータセットとともに、コードはhttps://github.com/salesforce/ULIPで見ることができる。
関連論文リスト
- TAMM: TriAdapter Multi-Modal Learning for 3D Shape Understanding [31.59552321961767]
TriAdapter Multi-Modal Learning (TAMM)は3つの相乗的アダプタに基づく新しい2段階学習手法である。
TAMMは、広範囲の3Dエンコーダアーキテクチャ、事前トレーニングデータセット、下流タスクの3D表現を一貫して強化する。
論文 参考訳(メタデータ) (2024-02-28T17:18:38Z) - MM-Point: Multi-View Information-Enhanced Multi-Modal Self-Supervised 3D
Point Cloud Understanding [4.220064723125481]
マルチビュー2D情報は、3Dオブジェクトに対して優れた自己教師付き信号を提供することができる。
MM-Pointは、モーダル内およびモーダル間類似性目的によって駆動される。
合成データセットModelNet40で92.4%、実世界のデータセットScanObjectNNで87.8%のピーク精度を達成した。
論文 参考訳(メタデータ) (2024-02-15T15:10:17Z) - Point-Bind & Point-LLM: Aligning Point Cloud with Multi-modality for 3D
Understanding, Generation, and Instruction Following [88.39360296377589]
ポイントクラウドを2次元画像,言語,音声,ビデオと整合させる3次元マルチモーダリティモデルであるPoint-Bindを紹介する。
また、3次元マルチモーダル命令に続く最初の3次元大規模言語モデル(LLM)であるPoint-LLMを提案する。
論文 参考訳(メタデータ) (2023-09-01T17:59:47Z) - UniM$^2$AE: Multi-modal Masked Autoencoders with Unified 3D
Representation for 3D Perception in Autonomous Driving [51.37470133438836]
Masked Autoencoders (MAE)は、強力な表現の学習において重要な役割を担い、様々な3D知覚タスクにおいて優れた結果をもたらす。
この研究は、自律運転における統一された表現空間に適したマルチモーダルのMasked Autoencodersに展開する。
画像に固有のセマンティクスとLiDAR点雲の幾何学的複雑さを複雑に結合するために、UniM$2$AEを提案する。
論文 参考訳(メタデータ) (2023-08-21T02:13:40Z) - Beyond First Impressions: Integrating Joint Multi-modal Cues for
Comprehensive 3D Representation [72.94143731623117]
既存の方法は、単に3D表現を単一ビューの2D画像と粗い親カテゴリテキストに整列させる。
十分でないシナジーは、堅牢な3次元表現は共同視覚言語空間と一致すべきという考えを無視している。
我々は,JM3Dと呼ばれる多視点共同モダリティモデリング手法を提案し,点雲,テキスト,画像の統一表現を求める。
論文 参考訳(メタデータ) (2023-08-06T01:11:40Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - Multimodal Semi-Supervised Learning for 3D Objects [19.409295848915388]
本稿では,3次元の分類処理と検索処理の両方において,異なる3次元データのモデルのコヒーレンスを用いてデータ効率を向上させる方法について検討する。
本稿では、インスタンスレベルの一貫性制約を導入し、新しいマルチモーダル・コントラッシブ・プロトタイプ(M2CP)の損失を減らし、新しいマルチモーダル・セミ教師付き学習フレームワークを提案する。
提案するフレームワークは,モデルNet10およびモデルNet40データセットにおいて,分類タスクと検索タスクの両方において,最先端のすべての処理性能を大幅に上回っている。
論文 参考訳(メタデータ) (2021-10-22T05:33:16Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。