論文の概要: PLAD: Learning to Infer Shape Programs with Pseudo-Labels and
Approximate Distributions
- arxiv url: http://arxiv.org/abs/2011.13045v4
- Date: Tue, 22 Mar 2022 19:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:38:21.219130
- Title: PLAD: Learning to Infer Shape Programs with Pseudo-Labels and
Approximate Distributions
- Title(参考訳): PLAD:擬似ラベルと近似分布を用いた形状プログラムの推論学習
- Authors: R. Kenny Jones and Homer Walke and Daniel Ritchie
- Abstract要約: 2次元および3次元形状を生成するプログラムの推論は、リバースエンジニアリングや編集などにおいて重要である。
本稿では,プログラムの擬似ラベルと実行した出力形状をペア化する,プログラム推論に特有の新たな自己学習変種を提案する。
これらの手法を複数の2次元および3次元形状プログラム推論領域で評価する。
- 参考スコア(独自算出の注目度): 9.840290491547162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring programs which generate 2D and 3D shapes is important for reverse
engineering, editing, and more. Training models to perform this task is
complicated because paired (shape, program) data is not readily available for
many domains, making exact supervised learning infeasible. However, it is
possible to get paired data by compromising the accuracy of either the assigned
program labels or the shape distribution. Wake-sleep methods use samples from a
generative model of shape programs to approximate the distribution of real
shapes. In self-training, shapes are passed through a recognition model, which
predicts programs that are treated as "pseudo-labels" for those shapes. Related
to these approaches, we introduce a novel self-training variant unique to
program inference, where program pseudo-labels are paired with their executed
output shapes, avoiding label mismatch at the cost of an approximate shape
distribution. We propose to group these regimes under a single conceptual
framework, where training is performed with maximum likelihood updates sourced
from either Pseudo-Labels or an Approximate Distribution (PLAD). We evaluate
these techniques on multiple 2D and 3D shape program inference domains.
Compared with policy gradient reinforcement learning, we show that PLAD
techniques infer more accurate shape programs and converge significantly
faster. Finally, we propose to combine updates from different PLAD methods
within the training of a single model, and find that this approach outperforms
any individual technique.
- Abstract(参考訳): 2次元および3次元形状を生成するプログラムの推論は、リバースエンジニアリングや編集などにおいて重要である。
ペア(形、プログラム)データが多くのドメインで容易に利用できないため、このタスクを実行するためのモデルのトレーニングは複雑です。
しかし、割り当てられたプログラムラベルまたは形状分布の精度を妥協することにより、ペアデータを取得することができる。
ウェイクスリープ法は、実形状の分布を近似するために形状プログラムの生成モデルからのサンプルを使用する。
自己学習では、形状は認識モデルを通して受け継がれ、これらの形状に対して「pseudo-labels」として扱われるプログラムを予測する。
これらの手法に関連して,プログラム擬似ラベルと実行された出力形状を組み合わせることで,近似形状分布のコストでラベルミスマッチを回避する,プログラム推論に特有の新しい自己学習型を導入する。
本稿では,Pseudo-Labels あるいは Approximate Distribution (PLAD) から得られた最大可能性更新でトレーニングを行う,単一の概念的枠組みの下でこれらのレジームをグループ化することを提案する。
これらの手法を複数の2次元および3次元形状プログラム推論領域で評価する。
政策勾配強化学習と比較して,PLAD手法はより正確な形状プログラムを推定し,より高速に収束することを示す。
最後に、1つのモデルのトレーニングにおいて、異なるPLADメソッドからの更新を組み合わせることを提案し、このアプローチが個々のテクニックよりも優れていることを確かめる。
関連論文リスト
- Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - Make-A-Shape: a Ten-Million-scale 3D Shape Model [52.701745578415796]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - G-MSM: Unsupervised Multi-Shape Matching with Graph-based Affinity
Priors [52.646396621449]
G-MSMは、非剛体形状対応のための新しい教師なし学習手法である。
学習形態の集合に親和性グラフを自己教師型で構築する。
近年の形状対応ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2022-12-06T12:09:24Z) - Probabilistic Registration for Gaussian Process 3D shape modelling in
the presence of extensive missing data [63.8376359764052]
本稿では,ガウス過程の定式化に基づく形状適合/登録手法を提案する。
様々な変換を持つ2次元の小さなデータセットと耳の3次元データセットの両方で実験が行われる。
論文 参考訳(メタデータ) (2022-03-26T16:48:27Z) - AutoSDF: Shape Priors for 3D Completion, Reconstruction and Generation [29.018733252938926]
パワフルな事前処理によって、不十分な情報で推論を実行できます。
本稿では, 形状完了, 復元, 生成といったマルチモーダルな3次元課題を解決するために, 3次元形状に対する自己回帰前処理を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:59:54Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Revealing and Protecting Labels in Distributed Training [3.18475216176047]
本稿では,最終層の勾配とラベルマッピングへのIDのみから,トレーニングサンプルのラベル集合を発見する手法を提案する。
本稿では,画像分類と自動音声認識という2つの領域におけるモデル学習の有効性を示す。
論文 参考訳(メタデータ) (2021-10-31T17:57:49Z) - Unsupervised 3D Shape Completion through GAN Inversion [116.27680045885849]
本稿では,GAN(Generative Adrial Network)インバージョンを導入したShapeInversionについて紹介する。
ShapeInversionは、与えられた部分入力に最も適した完全な形状を与える潜在コードを探すことで、完全な形状で事前訓練されたGANを使用する。
shapenetベンチマークでは、shapeinversion は sota unsupervised メソッドよりも優れており、ペアデータを用いて学習される教師ありメソッドに匹敵する。
論文 参考訳(メタデータ) (2021-04-27T17:53:46Z) - ShapeAssembly: Learning to Generate Programs for 3D Shape Structure
Synthesis [38.27280837835169]
本研究では,3次元形状構造のためのドメイン固有の「アセンブリ言語」であるShapeAssemblyを提案する。
PartNetデータセットの既存の形状構造からShapeAssemblyプログラムを抽出する方法を示す。
生成したプログラムから出力される形状を、他の最近の形状構造モデルと比較することにより、我々のアプローチを評価する。
論文 参考訳(メタデータ) (2020-09-17T02:26:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。