論文の概要: Completing point cloud from few points by Wasserstein GAN and
Transformers
- arxiv url: http://arxiv.org/abs/2211.12746v1
- Date: Wed, 23 Nov 2022 07:11:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 15:14:12.917389
- Title: Completing point cloud from few points by Wasserstein GAN and
Transformers
- Title(参考訳): Wasserstein GAN と Transformers による少数点からの点雲の補完
- Authors: Xianfeng Wu and Jinhui Qian and Qing Wei and Xianzu Wu and Xinyi Liu
and Luxin Hu and Yanli Gong and Zhongyuan Lai and Libing Wu
- Abstract要約: 視覚やロボティクスの応用においては、捕獲された物体がごく少数の点で表現されることが一般的である。
上記の問題に対処するために, GAN と Transformer 技術を導入する。
提案手法は,多くの入力点に対する完了性能を向上するだけでなく,少数の入力点に対して安定に維持することができる。
- 参考スコア(独自算出の注目度): 7.158664307196048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many vision and robotics applications, it is common that the captured
objects are represented by very few points. Most of the existing completion
methods are designed for partial point clouds with many points, and they
perform poorly or even fail completely in the case of few points. However, due
to the lack of detail information, completing objects from few points faces a
huge challenge. Inspired by the successful applications of GAN and Transformers
in the image-based vision task, we introduce GAN and Transformer techniques to
address the above problem. Firstly, the end-to-end encoder-decoder network with
Transformers and the Wasserstein GAN with Transformer are pre-trained, and then
the overall network is fine-tuned. Experimental results on the ShapeNet dataset
show that our method can not only improve the completion performance for many
input points, but also keep stable for few input points. Our source code is
available at https://github.com/WxfQjh/Stability-point-recovery.git.
- Abstract(参考訳): 多くのビジョンやロボット工学の応用において、捕獲された物体は非常に少ない点で表現されるのが一般的である。
既存の完了法のほとんどは、多くの点を持つ部分点雲のために設計されており、少数点の場合、性能が悪く、あるいは完全に失敗する。
しかし、詳細情報が不足しているため、少数のポイントからオブジェクトを完了させることは大きな課題に直面します。
画像ベース視覚タスクにおけるGANとTransformerの応用に触発されて、上記の問題に対処するためのGANとTransformer技術を導入する。
まず,Transformerを用いたエンドツーエンドエンコーダデコーダネットワークとTransformerを用いたWasserstein GANを事前トレーニングし,ネットワーク全体を微調整する。
ShapeNetデータセットの実験結果から,本手法は多数の入力点に対する完了性能を向上するだけでなく,少数の入力点に対して安定に維持できることが示唆された。
ソースコードはhttps://github.com/wxfqjh/stability-point-recovery.gitで入手できます。
関連論文リスト
- GeoTransformer: Fast and Robust Point Cloud Registration with Geometric
Transformer [63.85771838683657]
点雲登録のための正確な対応を抽出する問題について検討する。
最近のキーポイントフリー法は、繰り返し可能なキーポイントの検出をバイパスすることで大きなポテンシャルを示している。
そこで我々は,Geometric Transformer (Geo Transformer) を略して提案し,ロバストなスーパーポイントマッチングのための幾何学的特徴を学習する。
論文 参考訳(メタデータ) (2023-07-25T02:36:04Z) - Applying Plain Transformers to Real-World Point Clouds [0.0]
この研究は、現実世界のポイントクラウド理解におけるプレーントランスフォーマーを再考する。
誘導バイアスの欠如による性能ギャップを解消するため,マスク付きオートエンコーダ(MAE)を用いた自己教師型事前訓練について検討した。
我々のモデルは,S3DISデータセットのセマンティックセグメンテーションとScanNetデータセットのオブジェクト検出において,計算コストの低いSOTA結果を実現する。
論文 参考訳(メタデータ) (2023-02-28T21:06:36Z) - 3DSGrasp: 3D Shape-Completion for Robotic Grasp [81.1638620745356]
オブジェクトの完全な3Dポイントクラウドデータ(PCD)が利用可能であれば、現実のロボットの把握は堅牢に行うことができる。
実際に、PCDは、握る動作の前に、オブジェクトがほとんど見ていない、そしてまばらな視点から見られているとき、しばしば不完全である。
そこで我々は3DSGraspという新しい把握戦略を提案する。これは部分的なPCDから欠落した幾何を予測し、信頼性の高い把握ポーズを生成する。
論文 参考訳(メタデータ) (2023-01-02T20:23:05Z) - Pix4Point: Image Pretrained Standard Transformers for 3D Point Cloud
Understanding [62.502694656615496]
本稿では、プログレッシブ・ポイント・パッチ・エンベディングと、PViTと呼ばれる新しいポイント・クラウド・トランスフォーマーモデルを提案する。
PViTはTransformerと同じバックボーンを共有しているが、データに対して空腹が少ないことが示されており、Transformerは最先端技術に匹敵するパフォーマンスを実現することができる。
我々は、イメージ領域で事前訓練されたトランスフォーマーを活用して、下流のクラウド理解を強化する、シンプルで効果的なパイプライン「Pix4Point」を定式化します。
論文 参考訳(メタデータ) (2022-08-25T17:59:29Z) - SeedFormer: Patch Seeds based Point Cloud Completion with Upsample
Transformer [46.800630776714016]
本稿では,ポイントクラウド完了時の細部保存と回復の能力を向上させるための新しいSeedFormerを提案する。
我々は、部分的な入力から一般的な構造をキャプチャするだけでなく、局所的なパターンの地域情報も保存する新しい形状表現、すなわち、パッチシードを導入する。
提案手法は,複数のベンチマークデータセット上で,最先端のコンプリートネットワークの性能を向上する。
論文 参考訳(メタデータ) (2022-07-21T06:15:59Z) - Point-BERT: Pre-training 3D Point Cloud Transformers with Masked Point
Modeling [104.82953953453503]
BERTの概念を3Dポイントクラウドに一般化するための新しいパラダイムであるPoint-BERTを提案する。
提案したBERTスタイルの事前学習戦略は,標準点クラウドトランスフォーマーの性能を著しく向上することを示す実験である。
論文 参考訳(メタデータ) (2021-11-29T18:59:03Z) - PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers [81.71904691925428]
本稿では,ポイントクラウドの完了をセット・ツー・セットの翻訳問題として再定義する手法を提案する。
我々はまた、ポイントクラウド補完のためにトランスフォーマーエンコーダデコーダアーキテクチャを採用するPoinTrと呼ばれる新しいモデルも設計している。
提案手法は,新しいベンチマークと既存ベンチマークの両方において,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T17:58:56Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。