論文の概要: Learning and Memorizing Representative Prototypes for 3D Point Cloud
Semantic and Instance Segmentation
- arxiv url: http://arxiv.org/abs/2001.01349v1
- Date: Mon, 6 Jan 2020 01:07:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 02:26:38.584749
- Title: Learning and Memorizing Representative Prototypes for 3D Point Cloud
Semantic and Instance Segmentation
- Title(参考訳): 3Dポイントクラウドセマンティックおよびインスタンスセグメンテーションのための代表プロトタイプの学習と記憶
- Authors: Tong He and Dong Gong and Zhi Tian and Chunhua Shen
- Abstract要約: 3Dポイントクラウドセマンティクスとインスタンスセグメンテーションは、3Dシーン理解にとって不可欠で基本である。
深層ネットワークは、学習過程における非支配的なケースを忘れやすく、不満足なパフォーマンスをもたらす。
本稿では,多様なサンプルを普遍的にカバーする代表プロトタイプを学習し,記憶するメモリ拡張ネットワークを提案する。
- 参考スコア(独自算出の注目度): 117.29799759864127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud semantic and instance segmentation is crucial and fundamental
for 3D scene understanding. Due to the complex structure, point sets are
distributed off balance and diversely, which appears as both category imbalance
and pattern imbalance. As a result, deep networks can easily forget the
non-dominant cases during the learning process, resulting in unsatisfactory
performance. Although re-weighting can reduce the influence of the
well-classified examples, they cannot handle the non-dominant patterns during
the dynamic training. In this paper, we propose a memory-augmented network to
learn and memorize the representative prototypes that cover diverse samples
universally. Specifically, a memory module is introduced to alleviate the
forgetting issue by recording the patterns seen in mini-batch training. The
learned memory items consistently reflect the interpretable and meaningful
information for both dominant and non-dominant categories and cases. The
distorted observations and rare cases can thus be augmented by retrieving the
stored prototypes, leading to better performances and generalization.
Exhaustive experiments on the benchmarks, i.e. S3DIS and ScanNetV2, reflect the
superiority of our method on both effectiveness and efficiency. Not only the
overall accuracy but also nondominant classes have improved substantially.
- Abstract(参考訳): 3Dポイントクラウドセマンティクスとインスタンスセグメンテーションは、3Dシーン理解にとって不可欠かつ基本である。
複雑な構造のため、点集合は多種多様であり、カテゴリー不均衡とパターン不均衡の両方として現れる。
その結果、深層ネットワークは学習過程における非優位なケースを忘れやすく、不満足なパフォーマンスをもたらす。
再重み付けは、よく分類された例の影響を軽減できるが、動的トレーニング中に非支配的なパターンを扱うことはできない。
本稿では,多様なサンプルを普遍的にカバーする代表プロトタイプを学習し,記憶するメモリ拡張ネットワークを提案する。
具体的には、ミニバッチトレーニングで見られるパターンを記録することにより、忘れる問題を緩和するメモリモジュールを導入する。
学習された記憶項目は、支配的かつ非支配的なカテゴリーとケースの解釈可能かつ有意義な情報を一貫して反映する。
したがって、歪んだ観測と稀なケースは、記憶されたプロトタイプを回収することで強化することができ、より良い性能と一般化をもたらす。
S3DIS と ScanNetV2 のベンチマーク実験は,本手法が有効性および効率性の両方において優れていることを反映している。
全体的な精度だけでなく、非支配クラスも大幅に改善されている。
関連論文リスト
- Benchmarking Hebbian learning rules for associative memory [0.0]
連想記憶は認知と計算の脳科学における重要な概念である。
ストレージ容量とプロトタイプ抽出に関する6つの異なる学習ルールをベンチマークする。
論文 参考訳(メタデータ) (2023-12-30T21:49:47Z) - Gaussian Switch Sampling: A Second Order Approach to Active Learning [11.775252660867285]
能動的学習において、取得関数は、モデル多様体内の表現位置に直接情報性を定義する。
本稿では,アクティブラーニングの文脈における情報内容とサンプルの重要性の2次定義を提案する。
我々は,モデル表現が訓練データの欠如によって制約されている場合でも,その定義が極めて正確な重要度スコアを生成することを示す。
論文 参考訳(メタデータ) (2023-02-16T15:24:56Z) - Learning sparse features can lead to overfitting in neural networks [9.2104922520782]
機能学習は遅延トレーニングよりもパフォーマンスが良くないことを示す。
空間性は異方性データの学習に不可欠であることが知られているが、対象関数が一定あるいは滑らかな場合に有害である。
論文 参考訳(メタデータ) (2022-06-24T14:26:33Z) - Memory-Guided Semantic Learning Network for Temporal Sentence Grounding [55.31041933103645]
本稿では,TSGタスクにおいて稀に出現しないコンテンツを学習し,記憶するメモリ拡張ネットワークを提案する。
MGSL-Netは、クロスモーダル・インターアクション・モジュール、メモリ拡張モジュール、異種アテンション・モジュールの3つの主要な部分で構成されている。
論文 参考訳(メタデータ) (2022-01-03T02:32:06Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Point Discriminative Learning for Unsupervised Representation Learning
on 3D Point Clouds [54.31515001741987]
3次元点雲上での教師なし表現学習のための点識別学習法を提案する。
我々は、中間レベルとグローバルレベルの特徴に新しい点識別損失を課すことにより、これを達成した。
提案手法は強力な表現を学習し,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-08-04T15:11:48Z) - Rethinking Deep Contrastive Learning with Embedding Memory [58.66613563148031]
ペアワイズ損失関数は広く研究され、dml(deep metric learning)のパフォーマンスを継続的に改善することが示されている。
本稿では,様々な対損失関数の重み付け戦略を体系的に研究する新しい手法を提案し,組重み付けを埋め込みメモリで再考する。
論文 参考訳(メタデータ) (2021-03-25T17:39:34Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。