論文の概要: ULIP-2: Towards Scalable Multimodal Pre-training for 3D Understanding
- arxiv url: http://arxiv.org/abs/2305.08275v2
- Date: Thu, 18 May 2023 19:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 18:06:49.652536
- Title: ULIP-2: Towards Scalable Multimodal Pre-training for 3D Understanding
- Title(参考訳): ULIP-2:3次元理解のためのスケーラブルなマルチモーダル事前学習を目指して
- Authors: Le Xue, Ning Yu, Shu Zhang, Junnan Li, Roberto Mart\'in-Mart\'in,
Jiajun Wu, Caiming Xiong, Ran Xu, Juan Carlos Niebles, Silvio Savarese
- Abstract要約: 本研究では,3次元オブジェクトの汎用言語を自動生成するトリオモーダル事前学習フレームワークを開発した。
3Dアノテーションを一切必要とせず、従って大規模なデータセットにスケーラブルである。
ModelNet40では、下流のゼロショット分類が大幅に改善されている。
現実世界のScanObjectNNベンチマークでは、91.5%の精度で、パラメータはわずか1.4万である。
- 参考スコア(独自算出の注目度): 103.58388549764302
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advancements in multimodal pre-training methods have shown promising
efficacy in 3D representation learning by aligning multimodal features across
3D shapes, their 2D counterparts, and language descriptions. However, the
methods used by existing multimodal pre-training frameworks to gather
multimodal data for 3D applications lack scalability and comprehensiveness,
potentially constraining the full potential of multimodal learning. The main
bottleneck lies in the language modality's scalability and comprehensiveness.
To address this, we introduce ULIP-2, a tri-modal pre-training framework that
leverages state-of-the-art large multimodal models to automatically generate
holistic language counterparts for 3D objects. It does not require any 3D
annotations, and is therefore scalable to large datasets. We conduct
experiments on two large-scale 3D datasets, Objaverse and ShapeNet, and augment
them with tri-modal datasets of 3D point clouds, images, and language for
training ULIP-2. ULIP-2 achieves significant improvements on downstream
zero-shot classification on ModelNet40 (74.0% in top-1 accuracy); on the
real-world ScanObjectNN benchmark, it obtains 91.5% in overall accuracy with
only 1.4 million parameters, signifying a breakthrough in scalable multimodal
3D representation learning without human 3D annotations. The code, along with
the generated tri-modal datasets, can be found at
https://github.com/salesforce/ULIP.
- Abstract(参考訳): 近年のマルチモーダル事前学習法は, 3次元形状, 2次元形状, 言語記述の多モーダル特徴の整合による3次元表現学習において有望な効果を示した。
しかし、3Dアプリケーションのためのマルチモーダルデータを収集するために既存のマルチモーダル事前学習フレームワークが使用している手法はスケーラビリティと包括性に欠けており、多モーダル学習の可能性を最大限に制限する可能性がある。
主なボトルネックは、言語モダリティのスケーラビリティと包括性にある。
そこで本研究では,最先端の大規模マルチモーダルモデルを利用して3次元オブジェクトの汎用言語を自動生成する,三モード事前学習フレームワークULIP-2を紹介する。
3Dアノテーションを必要としないため、大規模なデータセットにスケーラブルである。
我々は,2つの大規模3DデータセットであるObjaverseとShapeNetで実験を行い,ULIP-2をトレーニングするための3Dポイントクラウド,画像,言語をトリモーダルデータセットで拡張した。
ULIP-2は、ModelNet40の下流ゼロショット分類(トップ1の精度で74.0%)を大幅に改善し、現実世界のScanObjectNNベンチマークでは91.5%の精度で14万のパラメータしか取得できず、人間の3Dアノテーションなしでスケーラブルなマルチモーダル3D表現学習のブレークスルーを示す。
生成されたトリモーダルデータセットとともに、コードはhttps://github.com/salesforce/ULIPで見ることができる。
関連論文リスト
- Language-Image Models with 3D Understanding [59.499585515469974]
LV3Dと呼ばれる2Dおよび3Dのための大規模事前学習データセットを開発した。
次に,新しいMLLMであるCube-LLMを導入し,LV3Dで事前学習する。
純粋なデータスケーリングは、3D特有のアーキテクチャ設計やトレーニング目的を使わずに、強力な3D知覚能力を実現することを示す。
論文 参考訳(メタデータ) (2024-05-06T17:57:27Z) - Cross-Modal Self-Training: Aligning Images and Pointclouds to Learn Classification without Labels [69.55622471172941]
CLIPのような大規模ビジョン2D視覚言語モデルは、一般化可能な(オープン語彙)3D視覚モデルを学ぶために3Dエンコーダと整列することができる。
ゼロショット3Dビジョンモデルのラベルなし分類性能を改善するために、クロスモーダル自己訓練(Cross-MoST: Cross-Modal Self-Training)を提案する。
論文 参考訳(メタデータ) (2024-04-15T21:30:50Z) - TAMM: TriAdapter Multi-Modal Learning for 3D Shape Understanding [28.112402580426174]
TriAdapter Multi-Modal Learning (TAMM)は3つの相乗的アダプタに基づく新しい2段階学習手法である。
TAMMは、広範囲の3Dエンコーダアーキテクチャ、事前トレーニングデータセット、下流タスクの3D表現を一貫して強化する。
論文 参考訳(メタデータ) (2024-02-28T17:18:38Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Beyond First Impressions: Integrating Joint Multi-modal Cues for
Comprehensive 3D Representation [72.94143731623117]
既存の方法は、単に3D表現を単一ビューの2D画像と粗い親カテゴリテキストに整列させる。
十分でないシナジーは、堅牢な3次元表現は共同視覚言語空間と一致すべきという考えを無視している。
我々は,JM3Dと呼ばれる多視点共同モダリティモデリング手法を提案し,点雲,テキスト,画像の統一表現を求める。
論文 参考訳(メタデータ) (2023-08-06T01:11:40Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。