論文の概要: LighTN: Light-weight Transformer Network for Performance-overhead
Tradeoff in Point Cloud Downsampling
- arxiv url: http://arxiv.org/abs/2202.06263v1
- Date: Sun, 13 Feb 2022 08:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:25:36.575258
- Title: LighTN: Light-weight Transformer Network for Performance-overhead
Tradeoff in Point Cloud Downsampling
- Title(参考訳): LighTN:ポイントクラウドダウンサンプリングにおけるパフォーマンスオーバーヘッドトレードオフのための軽量トランスフォーマーネットワーク
- Authors: Xu Wang, Yi Jin, Yigang Cen, Tao Wang, Bowen Tang, Yidong Li
- Abstract要約: 本稿では,タスク指向のクラウドダウンサンプリングのための軽量トランスフォーマーネットワーク(LighTN)を提案する。
LighTNはリソースオーバーヘッドを制限して最先端のパフォーマンスを実現することができる。
- 参考スコア(独自算出の注目度): 22.509992080325425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compared with traditional task-irrelevant downsampling methods, task-oriented
neural networks have shown improved performance in point cloud downsampling
range. Recently, Transformer family of networks has shown a more powerful
learning capacity in visual tasks. However, Transformer-based architectures
potentially consume too many resources which are usually worthless for low
overhead task networks in downsampling range. This paper proposes a novel
light-weight Transformer network (LighTN) for task-oriented point cloud
downsampling, as an end-to-end and plug-and-play solution. In LighTN, a
single-head self-correlation module is presented to extract refined global
contextual features, where three projection matrices are simultaneously
eliminated to save resource overhead, and the output of symmetric matrix
satisfies the permutation invariant. Then, we design a novel downsampling loss
function to guide LighTN focuses on critical point cloud regions with more
uniform distribution and prominent points coverage. Furthermore, We introduce a
feed-forward network scaling mechanism to enhance the learnable capacity of
LighTN according to the expand-reduce strategy. The result of extensive
experiments on classification and registration tasks demonstrates LighTN can
achieve state-of-the-art performance with limited resource overhead.
- Abstract(参考訳): 従来のタスク無関係なダウンサンプリング手法と比較すると、タスク指向ニューラルネットワークはポイントクラウドダウンサンプリング範囲のパフォーマンスが向上している。
近年、Transformerのネットワークは視覚タスクにおいてより強力な学習能力を示している。
しかし、トランスフォーマーベースのアーキテクチャは、ダウンサンプリング範囲の低オーバーヘッドタスクネットワークにとって価値のないリソースを多すぎる可能性がある。
本稿では,タスク指向のクラウドダウンサンプリングのための軽量トランスフォーマーネットワーク(LighTN)をエンドツーエンド・プラグイン・アンド・プレイソリューションとして提案する。
LighTNでは、単一ヘッド自己相関モジュールを提示し、洗練された大域的文脈特徴を抽出し、3つの射影行列を同時に除去してリソースオーバーヘッドを節約し、対称行列の出力は置換不変量を満たす。
次に,新たなダウンサンプリング損失関数を設計し,lightnがより均一な分布と注目点カバレッジを持つクリティカルポイントクラウド領域に焦点をあてるガイドを行う。
さらに,拡張還元戦略に従って学習能力を高めるために,フィードフォワードネットワークのスケーリング機構を導入する。
分類と登録タスクに関する広範な実験の結果、LighTNは限られたリソースオーバーヘッドで最先端のパフォーマンスを達成できることを示した。
関連論文リスト
- Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - RegFormer: An Efficient Projection-Aware Transformer Network for
Large-Scale Point Cloud Registration [73.69415797389195]
本稿では,大規模クラウドアライメントのためのエンドツーエンドトランス (RegFormer) ネットワークを提案する。
具体的には、プロジェクション対応階層変換器を提案し、長距離依存を捕捉し、外乱をフィルタする。
我々の変圧器は線形複雑であり、大規模シーンでも高い効率が保証される。
論文 参考訳(メタデータ) (2023-03-22T08:47:37Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Parametric Surface Constrained Upsampler Network for Point Cloud [33.033469444588086]
バイコビック関数と回転関数で表されるパラメトリック曲面をニューラルネットワークに学習させ,新しいサーフェス正規化器をアップサンプラーネットワークに導入する。
これらの設計は、2つの異なるネットワークに統合され、レイヤのアップサンプリングの利点を生かしている。
両課題の最先端実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-14T21:12:54Z) - Learning k-Level Structured Sparse Neural Networks Using Group Envelope Regularization [4.0554893636822]
制約のあるリソースに大規模ディープニューラルネットワークをデプロイするための新しいアプローチを導入する。
この手法は推論時間を短縮し、メモリ需要と消費電力を減らすことを目的とする。
論文 参考訳(メタデータ) (2022-12-25T15:40:05Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Sparse aNETT for Solving Inverse Problems with Deep Learning [2.5234156040689237]
逆問題を解決するためのスパース再構成フレームワーク(aNETT)を提案する。
非線形スペーシング変換として機能するオートエンコーダネットワーク$D circ E$をトレーニングする。
スパースCTでは数値的な結果が得られた。
論文 参考訳(メタデータ) (2020-04-20T18:43:13Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。