論文の概要: Loss Distillation via Gradient Matching for Point Cloud Completion with Weighted Chamfer Distance
- arxiv url: http://arxiv.org/abs/2409.06171v1
- Date: Tue, 10 Sep 2024 03:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 19:20:45.956651
- Title: Loss Distillation via Gradient Matching for Point Cloud Completion with Weighted Chamfer Distance
- Title(参考訳): 重み付きシャンファー距離を用いた点雲完了のための勾配マッチングによる損失蒸留
- Authors: Fangzhou Lin, Haotian Liu, Haoying Zhou, Songlin Hou, Kazunori D Yamada, Gregory S. Fischer, Yanhua Li, Haichong K. Zhang, Ziming Zhang,
- Abstract要約: 3Dポイントの雲は、ロボットが環境の幾何学的情報を知覚する能力を高め、ポーズ検出やシーン理解などの下流の多くのタスクを可能にした。
これらのタスクのパフォーマンスはデータ入力の品質に大きく依存する。
深層学習に基づく点雲完了のための近年の訓練損失関数は、優れた勾配重み付け方式が性能を著しく向上させることを示唆している。
- 参考スコア(独自算出の注目度): 22.877544790208105
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: 3D point clouds enhanced the robot's ability to perceive the geometrical information of the environments, making it possible for many downstream tasks such as grasp pose detection and scene understanding. The performance of these tasks, though, heavily relies on the quality of data input, as incomplete can lead to poor results and failure cases. Recent training loss functions designed for deep learning-based point cloud completion, such as Chamfer distance (CD) and its variants (\eg HyperCD ), imply a good gradient weighting scheme can significantly boost performance. However, these CD-based loss functions usually require data-related parameter tuning, which can be time-consuming for data-extensive tasks. To address this issue, we aim to find a family of weighted training losses ({\em weighted CD}) that requires no parameter tuning. To this end, we propose a search scheme, {\em Loss Distillation via Gradient Matching}, to find good candidate loss functions by mimicking the learning behavior in backpropagation between HyperCD and weighted CD. Once this is done, we propose a novel bilevel optimization formula to train the backbone network based on the weighted CD loss. We observe that: (1) with proper weighted functions, the weighted CD can always achieve similar performance to HyperCD, and (2) the Landau weighted CD, namely {\em Landau CD}, can outperform HyperCD for point cloud completion and lead to new state-of-the-art results on several benchmark datasets. {\it Our demo code is available at \url{https://github.com/Zhang-VISLab/IROS2024-LossDistillationWeightedCD}.}
- Abstract(参考訳): 3Dポイントの雲は、ロボットが環境の幾何学的情報を知覚する能力を高め、ポーズ検出やシーン理解などの下流の多くのタスクを可能にした。
しかし、これらのタスクのパフォーマンスはデータ入力の品質に大きく依存している。
近年,Chamfer distance (CD) やその変種 (\eg HyperCD) など,深層学習に基づく点雲完備化のためのトレーニング損失関数が提案されている。
しかし、これらのCDベースの損失関数は通常、データ集約タスクに時間を要するデータ関連パラメータチューニングを必要とする。
この問題に対処するために,パラメータチューニングを必要としない重み付きトレーニング損失(重み付きCD)のファミリーを見つけることを目的とする。
そこで本研究では,ハイパーCDと重み付きCDのバックプロパゲーションにおける学習動作を模倣して,良好な候補損失関数を求めるための探索手法である「グラディエントマッチングによる損失蒸留」を提案する。
これを実行すると、重み付きCD損失に基づいてバックボーンネットワークをトレーニングするための新しい双レベル最適化式を提案する。
我々は,(1) 適切な重み付き関数を持つ場合,(1) 重み付きCDは常にHyperCDに類似した性能を達成でき,(2) ランダウ重み付きCDは点雲完了時にHyperCDを上回り,いくつかのベンチマークデータセットで新たな最先端結果をもたらすことを観察した。
デモコードは \url{https://github.com/Zhang-VISLab/IROS2024-LossDistillationWeightedCD} で公開されている。
※
関連論文リスト
- Efficient and Generic Point Model for Lossless Point Cloud Attribute Compression [28.316347464011056]
PoLoPCACは、高い圧縮効率と強力な一般化性を同時に達成する効率的で汎用的なPCAC手法である。
提案手法は,Synthetic 2k-ShapeNetデータセットでトレーニングした時に即座にデプロイできる。
実験により, 各種データセット上でのG-PCCv23よりも連続的にビットレートを低減できることがわかった。
論文 参考訳(メタデータ) (2024-04-10T11:40:02Z) - Toward distortion-aware change detection in realistic scenarios [16.192695430837443]
そこで本研究では,CDタスクにおける時間的幾何学的歪みに対する再利用可能な自己教師型フレームワークを提案する。
このフレームワークはPretext Representation Pre-training, Bitemporal Image Alignment, Down-stream Decoder Fine-Tuningで構成されている。
シングルステージの事前トレーニングのみで、フレームワークの重要なコンポーネントは、バイテンポラルイメージアライメントの補助として再利用することができる。
論文 参考訳(メタデータ) (2024-01-10T13:43:06Z) - Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - Deep Metric Learning for Unsupervised Remote Sensing Change Detection [60.89777029184023]
リモートセンシング変化検出(RS-CD)は、マルチテンポラルリモートセンシング画像(MT-RSI)から関連する変化を検出することを目的とする。
既存のRS-CD法の性能は、大規模な注釈付きデータセットのトレーニングによるものである。
本稿では,これらの問題に対処可能なディープメトリック学習に基づく教師なしCD手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T17:52:45Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - Unsupervised Point Cloud Pre-Training via Occlusion Completion [18.42664414305454]
点雲に対する簡単な事前学習アプローチについて述べる。
カメラビューに隠された全てのポイントをマスクする 2. 隠されたポイントを再構築するためにエンコーダ・デコーダモデルを学ぶ 3. 下流のクラウドタスクの初期化としてエンコーダ重みを使用する。
論文 参考訳(メタデータ) (2020-10-02T16:43:14Z) - Point Cloud Completion by Learning Shape Priors [74.80746431691938]
形状の先行には、完全点雲と部分点雲の両方の幾何学的情報が含まれる。
完全点から先行する形状を学習するための特徴アライメント戦略を設計し、微細な段階で部分的な事前を組み込むための粗い微妙な戦略を設計する。
我々はポイントクラウド完了タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-02T04:00:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。