論文の概要: Generalizable Local Feature Pre-training for Deformable Shape Analysis
- arxiv url: http://arxiv.org/abs/2303.15104v1
- Date: Mon, 27 Mar 2023 11:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 15:52:06.182096
- Title: Generalizable Local Feature Pre-training for Deformable Shape Analysis
- Title(参考訳): 変形可能な形状解析のための一般化可能な局所特徴事前学習
- Authors: Souhaib Attaiki and Lei Li and Maks Ovsjanikov
- Abstract要約: トランスファーラーニングは、ほとんどトレーニングデータのない設定で問題に対処するための基本となる。
変形可能な3Dオブジェクトを含むタスクにおける特徴の局所性と伝達可能性の関係を解析する。
本稿では,3次元伝達学習における受容場を最適化する微分可能な手法を提案する。
- 参考スコア(独自算出の注目度): 36.44119664239748
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Transfer learning is fundamental for addressing problems in settings with
little training data. While several transfer learning approaches have been
proposed in 3D, unfortunately, these solutions typically operate on an entire
3D object or even scene-level and thus, as we show, fail to generalize to new
classes, such as deformable organic shapes. In addition, there is currently a
lack of understanding of what makes pre-trained features transferable across
significantly different 3D shape categories. In this paper, we make a step
toward addressing these challenges. First, we analyze the link between feature
locality and transferability in tasks involving deformable 3D objects, while
also comparing different backbones and losses for local feature pre-training.
We observe that with proper training, learned features can be useful in such
tasks, but, crucially, only with an appropriate choice of the receptive field
size. We then propose a differentiable method for optimizing the receptive
field within 3D transfer learning. Jointly, this leads to the first learnable
features that can successfully generalize to unseen classes of 3D shapes such
as humans and animals. Our extensive experiments show that this approach leads
to state-of-the-art results on several downstream tasks such as segmentation,
shape correspondence, and classification. Our code is available at
\url{https://github.com/pvnieo/vader}.
- Abstract(参考訳): トランスファーラーニングは、トレーニングデータが少ない設定で問題に対処するのに基本です。
3dでいくつかのトランスファーラーニングアプローチが提案されているが、残念ながらこれらのソリューションは一般的に3dオブジェクト全体、あるいはシーンレベルで動作し、変形可能な有機形状のような新しいクラスへの一般化に失敗している。
さらに、現在、異なる3D形状カテゴリ間で事前訓練された特徴が転送可能であるかについての理解の欠如がある。
本稿では,これらの課題に取り組むための一歩を踏み出す。
まず,変形可能な3dオブジェクトを含むタスクにおける特徴の局所性と転送可能性の関係を分析するとともに,局所的な特徴の事前学習において異なるバックボーンと損失を比較する。
適切なトレーニングを行うことで、学習した特徴はそのようなタスクに役立てることができるが、重要なことは、受容的フィールドサイズを適切に選択することのみである。
次に,3次元伝達学習における受容場を最適化する微分可能な手法を提案する。
これは、人間や動物のような3d形状の目に見えないクラスにうまく一般化できる最初の学習可能な特徴に繋がる。
提案手法は, セグメント化, 形状対応, 分類などの下流課題に対して, 最先端の成果をもたらすことを示す。
私たちのコードは \url{https://github.com/pvnieo/vader} で利用可能です。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - 3D-LFM: Lifting Foundation Model [29.48835001900286]
ディープラーニングは、幅広いオブジェクトクラスを再構築する能力を拡大しました。
提案手法は, 3次元データインスタンス毎に異なる数点を管理するために, 固有置換同値変換器を利用する。
本稿では,2D-3Dリフトタスクベンチマークにおけるアートパフォーマンスについて述べる。
論文 参考訳(メタデータ) (2023-12-19T06:38:18Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - Meta-Learning 3D Shape Segmentation Functions [16.119694625781992]
本稿では,3次元形状を入力として,各3次元セグメント関数空間の事前予測を行うメタリアナとして,補助的なディープニューラルネットワークを導入する。
実験では,メタ3DSegと呼ばれるメタラーニング手法が,教師なし3次元形状のセグメンテーションの改善につながることを示す。
論文 参考訳(メタデータ) (2021-10-08T01:50:54Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - Learning Compositional Shape Priors for Few-Shot 3D Reconstruction [36.40776735291117]
複雑なエンコーダ・デコーダアーキテクチャが,カテゴリごとの大量のデータを利用することを示す。
データから直接クラス固有のグローバルな形状を学習する3つの方法を提案する。
人気のShapeNetデータセットの実験から,本手法はゼロショットベースラインを40%以上上回る性能を示した。
論文 参考訳(メタデータ) (2021-06-11T14:55:49Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。