論文の概要: MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling
- arxiv url: http://arxiv.org/abs/2005.00383v4
- Date: Mon, 12 Apr 2021 17:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 00:14:12.780385
- Title: MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling
- Title(参考訳): MOPS-Net:Task Oriented 3D Point Cloud Downsamplingのためのマトリックス最適化駆動ネットワーク
- Authors: Yue Qian, Junhui Hou, Qijian Zhang, Yiming Zeng, Sam Kwong, and Ying
He
- Abstract要約: MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
- 参考スコア(独自算出の注目度): 86.42733428762513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the problem of task-oriented downsampling over 3D point
clouds, which aims to downsample a point cloud while maintaining the
performance of subsequent applications applied to the downsampled sparse points
as much as possible. Designing from the perspective of matrix optimization, we
propose MOPS-Net, a novel interpretable deep learning-based method, which is
fundamentally different from the existing deep learning-based methods due to
its interpretable feature. The optimization problem is challenging due to its
discrete and combinatorial nature. We tackle the challenges by relaxing the
binary constraint of the variables, and formulate a constrained and
differentiable matrix optimization problem. We then design a deep neural
network to mimic the matrix optimization by exploring both the local and global
structures of the input data. MOPS-Net can be end-to-end trained with a task
network and is permutation-invariant, making it robust to the input. We also
extend MOPS-Net such that a single network after one-time training is capable
of handling arbitrary downsampling ratios. Extensive experimental results show
that MOPS-Net can achieve favorable performance against state-of-the-art deep
learning-based methods over various tasks, including classification,
reconstruction, and registration. Besides, we validate the robustness of
MOPS-Net on noisy data.
- Abstract(参考訳): 本稿では,3Dポイントクラウド上でのタスク指向のダウンサンプリングの問題について考察する。これは,ダウンサンプリングされたスパースポイントに適用されたその後のアプリケーションの性能を可能な限り維持しつつ,ポイントクラウドをダウンサンプリングすることを目的としている。
行列最適化の観点から設計したMOPS-Netは,新しい解釈可能な深層学習法であり,その解釈可能な特徴から既存の深層学習法と根本的に異なる。
最適化問題は、その離散的および組合せ的性質のために困難である。
我々は,変数のバイナリ制約を緩和し,制約付きかつ微分可能な行列最適化問題を定式化する。
次に,入力データの局所的および大域的構造を探索することにより,行列最適化を模倣するディープニューラルネットワークを設計する。
MOPS-Netはタスクネットワークでエンドツーエンドでトレーニングでき、置換不変であり、入力に対して堅牢である。
また、1回のトレーニング後に1つのネットワークが任意のダウンサンプリング比を扱えるようにMOPS-Netを拡張した。
大規模な実験結果から,MOPS-Netは,分類,再構築,登録など様々なタスクにおいて,最先端の深層学習手法に対して良好な性能を発揮することが示された。
また,ノイズデータに対するmops-netのロバスト性を検証する。
関連論文リスト
- Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Transformer-based assignment decision network for multiple object
tracking [0.0]
本稿では,データアソシエーションに取り組むトランスフォーマーベースのアサインメント決定ネットワーク(TADN)について,推論中に明示的な最適化を必要とせずに紹介する。
提案手法は,トラッカーとしての単純な性質にもかかわらず,ほとんどの評価指標において最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-08-06T19:47:32Z) - Training Neural Networks using SAT solvers [1.0152838128195465]
本稿では,SATソルバを用いてニューラルネットワークのトレーニングを行うグローバル最適化手法を提案する。
実験では,パリティ学習などのタスクにおいて,ADAMオプティマイザに対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2022-06-10T01:31:12Z) - RoMA: Robust Model Adaptation for Offline Model-based Optimization [115.02677045518692]
入力出力クエリの静的データセットからブラックボックス目的関数を最大化する入力を探索する問題を考える。
この問題を解決するための一般的なアプローチは、真の客観的関数を近似するプロキシモデルを維持することである。
ここでの大きな課題は、検索中に逆最適化された入力を避ける方法である。
論文 参考訳(メタデータ) (2021-10-27T05:37:12Z) - A Sparse Structure Learning Algorithm for Bayesian Network
Identification from Discrete High-Dimensional Data [0.40611352512781856]
本稿では,高次元離散データから疎構造ベイズネットワークを学習する問題に対処する。
本稿では,空間特性とDAG特性を同時に満足するスコア関数を提案する。
具体的には,アルゴリズムを高次元データで効率的に動作させるため,最適化アルゴリズムに分散低減法を用いる。
論文 参考訳(メタデータ) (2021-08-21T12:21:01Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z) - Deep-3DAligner: Unsupervised 3D Point Set Registration Network With
Optimizable Latent Vector [15.900382629390297]
本稿では,3次元登録における技術的課題に対処するために,学習に最適化を統合する新しいモデルを提案する。
ディープトランスフォーメーションデコーディングネットワークに加えて、我々のフレームワークは最適化可能なディープアンダーラインSpatial UnderlineCorrelation UnderlineRepresentationを導入している。
論文 参考訳(メタデータ) (2020-09-29T22:44:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。