論文の概要: A Cross Branch Fusion-Based Contrastive Learning Framework for Point Cloud Self-supervised Learning
- arxiv url: http://arxiv.org/abs/2505.24641v1
- Date: Fri, 30 May 2025 14:28:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.001627
- Title: A Cross Branch Fusion-Based Contrastive Learning Framework for Point Cloud Self-supervised Learning
- Title(参考訳): 点群自己教師型学習のためのクロスブランチフュージョンに基づくコントラスト学習フレームワーク
- Authors: Chengzhi Wu, Qianliang Huang, Kun Jin, Julius Pfrommer, Jürgen Beyerer,
- Abstract要約: 我々は、ポイントクラウドデータ(PoCCA)のためのコントラスト的クロスブランチ注意ベースのフレームワークを提案する。
PoCCAは、ロスエンドの前に異なるブランチ間で情報交換を可能にする。
実験により、余分なトレーニングデータを使用しない場合、自己教師付きモデルで学習した表現が最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 12.061097253754866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning is an essential method in self-supervised learning. It primarily employs a multi-branch strategy to compare latent representations obtained from different branches and train the encoder. In the case of multi-modal input, diverse modalities of the same object are fed into distinct branches. When using single-modal data, the same input undergoes various augmentations before being fed into different branches. However, all existing contrastive learning frameworks have so far only performed contrastive operations on the learned features at the final loss end, with no information exchange between different branches prior to this stage. In this paper, for point cloud unsupervised learning without the use of extra training data, we propose a Contrastive Cross-branch Attention-based framework for Point cloud data (termed PoCCA), to learn rich 3D point cloud representations. By introducing sub-branches, PoCCA allows information exchange between different branches before the loss end. Experimental results demonstrate that in the case of using no extra training data, the representations learned with our self-supervised model achieve state-of-the-art performances when used for downstream tasks on point clouds.
- Abstract(参考訳): コントラスト学習は自己指導型学習において不可欠な方法である。
主に、異なるブランチから得られた潜在表現を比較し、エンコーダを訓練するためのマルチブランチ戦略を採用している。
マルチモーダル入力の場合、同じオブジェクトの様々なモダリティは異なるブランチに供給される。
シングルモーダルデータを使用する場合、同じ入力は異なるブランチに入力する前に、様々な拡張を行う。
しかし、これまでの既存のコントラスト学習フレームワークは、最終損失終了時に学習した特徴に対してのみコントラスト的な操作を行っており、この段階では、異なるブランチ間での情報交換は行われていない。
本稿では、余分なトレーニングデータを用いずに、ポイントクラウドを教師なし学習するために、ポイントクラウドデータ(PoCCA)のためのコントラストクロスブランチアテンションベースのフレームワークを提案し、リッチな3Dポイントクラウド表現を学習する。
サブブランチを導入することで、PoCCAはロスエンドの前に異なるブランチ間で情報交換を行うことができる。
実験の結果, 余分なトレーニングデータを使用しない場合, 自己教師型モデルで学習した表現は, ポイントクラウド上の下流タスクに使用した場合に, 最先端のパフォーマンスを達成することがわかった。
関連論文リスト
- Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - PointMoment:Mixed-Moment-based Self-Supervised Representation Learning
for 3D Point Clouds [11.980787751027872]
我々は,ポイントクラウドによる自己教師型表現学習のための新しいフレームワークであるPointMomentを提案する。
我々のフレームワークは、非対称ネットワークアーキテクチャや勾配停止など特別な技術を必要としない。
論文 参考訳(メタデータ) (2023-12-06T08:49:55Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Let Images Give You More:Point Cloud Cross-Modal Training for Shape
Analysis [43.13887916301742]
本稿では、ポイントクラウド分析を促進するために、シンプルだが効果的なポイントクラウドクロスモダリティトレーニング(PointCMT)戦略を導入する。
ビューイメージから補助的知識を効果的に獲得するために,教師学生のための枠組みを開発し,知識蒸留問題としてクロスモーダル学習を定式化する。
我々は、魅力的なバックボーン、すなわちPointCMT、PointNet++、PointMLPを備えた様々なデータセットにおいて、大きな利益を検証した。
論文 参考訳(メタデータ) (2022-10-09T09:35:22Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - A Survey on Contrastive Self-supervised Learning [0.0]
自己教師付き学習は、大規模なデータセットのアノテートコストを回避する能力によって人気を集めている。
コントラスト学習は近年,コンピュータビジョン,自然言語処理(NLP)などの分野において,自己指導型学習手法の主流となっている。
本稿では, コントラスト的アプローチに従う自己教師型手法について, 広範囲にわたるレビューを行う。
論文 参考訳(メタデータ) (2020-10-31T21:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。