論文の概要: Meta-Sampler: Almost-Universal yet Task-Oriented Sampling for Point
Clouds
- arxiv url: http://arxiv.org/abs/2203.16001v1
- Date: Wed, 30 Mar 2022 02:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 14:20:47.067257
- Title: Meta-Sampler: Almost-Universal yet Task-Oriented Sampling for Point
Clouds
- Title(参考訳): meta-sampler: ほぼ普遍的だがタスク指向のポイントクラウドサンプリング
- Authors: Ta-Ying Cheng, Qingyong Hu, Qian Xie, Niki Trigoni, Andrew Markham
- Abstract要約: 複数のタスクにまたがって、ほぼ普遍的なメタサンプルをトレーニングする方法を示します。
このメタサンプルは、異なるデータセットやネットワーク、あるいは異なるタスクに適用した場合、迅速に微調整できる。
- 参考スコア(独自算出の注目度): 46.33828400918886
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sampling is a key operation in point-cloud task and acts to increase
computational efficiency and tractability by discarding redundant points.
Universal sampling algorithms (e.g., Farthest Point Sampling) work without
modification across different tasks, models, and datasets, but by their very
nature are agnostic about the downstream task/model. As such, they have no
implicit knowledge about which points would be best to keep and which to
reject. Recent work has shown how task-specific point cloud sampling (e.g.,
SampleNet) can be used to outperform traditional sampling approaches by
learning which points are more informative. However, these learnable samplers
face two inherent issues: i) overfitting to a model rather than a task, and
\ii) requiring training of the sampling network from scratch, in addition to
the task network, somewhat countering the original objective of down-sampling
to increase efficiency. In this work, we propose an almost-universal sampler,
in our quest for a sampler that can learn to preserve the most useful points
for a particular task, yet be inexpensive to adapt to different tasks, models,
or datasets. We first demonstrate how training over multiple models for the
same task (e.g., shape reconstruction) significantly outperforms the vanilla
SampleNet in terms of accuracy by not overfitting the sample network to a
particular task network. Second, we show how we can train an almost-universal
meta-sampler across multiple tasks. This meta-sampler can then be rapidly
fine-tuned when applied to different datasets, networks, or even different
tasks, thus amortizing the initial cost of training.
- Abstract(参考訳): サンプリングはポイントクラウドタスクの重要な操作であり、冗長なポイントを破棄することで計算効率とトラクタビリティを向上させる。
ユニバーサルサンプリングアルゴリズム(例えば、Farthest Point Smpling)は、異なるタスク、モデル、データセットを変更せずに機能するが、その性質上、下流のタスク/モデルに非依存である。
そのため、どのポイントが最善か、どのポイントを拒否するかについて、暗黙の知識を持っていない。
最近の研究は、タスク固有のポイントクラウドサンプリング(例:SampleNet)が、どのポイントがより有益なかを学ぶことによって、従来のサンプリングアプローチより優れていることを示す。
しかし、これらの学習可能なサンプル作成者は、2つの本質的な問題に直面している: i) タスクではなくモデルに過度に適合すること、および \ii) タスクネットワークに加えてサンプリングネットワークをスクラッチからトレーニングすること。
本研究では,特定のタスクに最も有用な点を保存できるが,異なるタスクやモデル,あるいはデータセットに適応するためのコストが安いサンプルを探索するために,ほぼ普遍的なサンプル手法を提案する。
まず,同一タスクに対する複数のモデル(形状再構成など)のトレーニングが,サンプルネットワークを特定のタスクネットワークに過大化しないようにすることで,精度の面でバニラサンプルネットを著しく上回っていることを示す。
次に、複数のタスクにまたがるほぼ普遍的なメタサンプルをトレーニングする方法を示す。
このメタサンプラーは、異なるデータセット、ネットワーク、あるいは異なるタスクに適用されると急速に微調整され、トレーニングの最初のコストを償うことができる。
関連論文リスト
- AU-PD: An Arbitrary-size and Uniform Downsampling Framework for Point
Clouds [6.786701761788659]
我々はAU-PDという新しいタスク対応サンプリングフレームワークを導入し、ポイントクラウドを直接小さなサイズにダウンサンプルする。
私たちは、ダウンストリームタスクの損失によって引き起こされるタスク認識を実現するために、プリサンプルセットを洗練します。
注意機構と適切なトレーニングスキームにより、フレームワークは異なるサイズのプリサンプルセットを適応的に洗練することを学ぶ。
論文 参考訳(メタデータ) (2022-11-02T13:37:16Z) - APSNet: Attention Based Point Cloud Sampling [0.7734726150561088]
我々は,この問題に対処するため,アテンションベースのポイントクラウドサンプリングネットワーク(APSNet)を開発した。
APSNetの教師付き学習と知識蒸留に基づく自己教師型学習の両方を提案する。
実験では、様々な下流タスクにおける最先端技術に対するAPSNetの優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-11T17:30:46Z) - Self-Supervised Arbitrary-Scale Point Clouds Upsampling via Implicit
Neural Representation [79.60988242843437]
そこで本研究では,自己監督型および倍率フレキシブルな点雲を同時にアップサンプリングする手法を提案する。
実験結果から, 自己教師あり学習に基づく手法は, 教師あり学習に基づく手法よりも, 競争力や性能が向上することが示された。
論文 参考訳(メタデータ) (2022-04-18T07:18:25Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Beyond Farthest Point Sampling in Point-Wise Analysis [52.218037492342546]
本稿では,ポイントワイズ分析タスクのための新しいデータ駆動型サンプル学習手法を提案する。
我々はサンプルと下流のアプリケーションを共同で学習する。
実験により, 従来のベースライン法に比べて, サンプルとタスクの同時学習が顕著に改善することが示された。
論文 参考訳(メタデータ) (2021-07-09T08:08:44Z) - Adaptive Task Sampling for Meta-Learning [79.61146834134459]
数ショットの分類のためのメタラーニングの鍵となるアイデアは、テスト時に直面した数ショットの状況を模倣することである。
一般化性能を向上させるための適応型タスクサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T03:15:53Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。