論文の概要: Effective Early Stopping of Point Cloud Neural Networks
- arxiv url: http://arxiv.org/abs/2209.15308v1
- Date: Fri, 30 Sep 2022 08:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:14:58.027904
- Title: Effective Early Stopping of Point Cloud Neural Networks
- Title(参考訳): ポイントクラウドニューラルネットワークの効率的な早期停止
- Authors: Thanasis Zoumpekas, Maria Salam\'o, Anna Puig
- Abstract要約: 本稿では3次元点雲を扱うニューラルネットワークの学習効率と精度のトレードオフを改善するための新しい早期停止手法を提案する。
その結果,3次元点雲の分節化において,4つの異なる高利用のニューラルネットワークで早期停止手法を用いることで,モデルのトレーニング時間効率を大幅に改善した。
- 参考スコア(独自算出の注目度): 1.9594639581421427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Early stopping techniques can be utilized to decrease the time cost, however
currently the ultimate goal of early stopping techniques is closely related to
the accuracy upgrade or the ability of the neural network to generalize better
on unseen data without being large or complex in structure and not directly
with its efficiency. Time efficiency is a critical factor in neural networks,
especially when dealing with the segmentation of 3D point cloud data, not only
because a neural network itself is computationally expensive, but also because
point clouds are large and noisy data, making learning processes even more
costly. In this paper, we propose a new early stopping technique based on
fundamental mathematics aiming to upgrade the trade-off between the learning
efficiency and accuracy of neural networks dealing with 3D point clouds. Our
results show that by employing our early stopping technique in four distinct
and highly utilized neural networks in segmenting 3D point clouds, the training
time efficiency of the models is greatly improved, with efficiency gain values
reaching up to 94\%, while the models achieving in just a few epochs
approximately similar segmentation accuracy metric values like the ones that
are obtained in the training of the neural networks in 200 epochs. Also, our
proposal outperforms four conventional early stopping approaches in
segmentation accuracy, implying a promising innovative early stopping technique
in point cloud segmentation.
- Abstract(参考訳): 早期停止技術は時間コストの削減に利用できるが、現在、早期停止技術の最終的な目標は、構造が大規模で複雑で、直接的かつ効率性に欠けることなく、見えないデータをより一般化するニューラルネットワークの精度向上や能力と密接な関係にある。
ニューラルネットワークにおいて時間効率は重要な要素であり、特に3Dポイントクラウドデータのセグメンテーションを扱う場合、ニューラルネットワーク自体が計算コストが高いだけでなく、ポイントクラウドが大規模でノイズの多いデータであるため、学習プロセスはさらにコストがかかる。
本稿では,3次元点雲を扱うニューラルネットワークの学習効率と精度のトレードオフを改善することを目的とした,基礎数学に基づく新しい早期停止手法を提案する。
その結果, 3次元点群を分割するニューラルネットワークにおいて, 初期停止手法を4つの異なる高利用ニューラルネットワークに適用することにより, モデルのトレーニング時間効率が大幅に向上し, 効率向上値が最大94\%まで向上し, わずか数エポックで達成したモデルでは, 200エポックのニューラルネットワークの訓練で得られたものとほぼ同様のセグメンテーション精度のメトリック値が得られた。
また,提案手法は,従来の4つの早期停止手法よりも精度が優れており,ポイントクラウドセグメンテーションにおける革新的な早期停止技術が示唆されている。
関連論文リスト
- Fast training of large kernel models with delayed projections [14.459817519150997]
データサイズとモデルサイズの両方で効率よくスケールできるカーネルマシンを構築するための新しい手法を提案する。
提案アルゴリズムでは,PSGD(Preconditioned Gradient Descent)に遅延プロジェクションを導入し,従来よりもはるかに大きなモデルのトレーニングを可能にする。
提案アルゴリズムであるEigenPro4を検証し,既存の手法よりも格段に高速な学習速度を示しながら,比較あるいはより優れた分類精度を維持した。
論文 参考訳(メタデータ) (2024-11-25T18:42:13Z) - Active Dendrites Enable Efficient Continual Learning in Time-To-First-Spike Neural Networks [1.7333836118546833]
活性デンドライトで強化された新しいスパイキングニューラルネットワークモデルを提案する。
我々のモデルは、時間的に符号化されたSNNにおいて破滅的な忘れを効果的に軽減することができる。
エッジデバイスにおける現実的なデプロイメントを実現するための,新たなディジタルハードウェアアーキテクチャを提供する。
論文 参考訳(メタデータ) (2024-04-30T10:11:03Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Enhanced quantum state preparation via stochastic prediction of neural
network [0.8287206589886881]
本稿では,ニューラルネットワークの知識盲点を生かして,アルゴリズムの有効性を高めるための興味深い道を探る。
本手法は,半導体ダブル量子ドットシステムにおける任意の量子状態の生成に使用される機械学習アルゴリズムを中心にしている。
ニューラルネットワークが生成した予測を活用することにより、最適化プロセスの導出により、局所最適化を回避できる。
論文 参考訳(メタデータ) (2023-07-27T09:11:53Z) - Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis [33.31864436614945]
本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T05:23:03Z) - Continual learning on 3D point clouds with random compressed rehearsal [10.667104977730304]
本研究では,3Dポイントクラウドデータ上で連続学習が可能なニューラルネットワークアーキテクチャを提案する。
我々は,過去のデータを強く圧縮した集合を保存するために,点雲構造特性を利用する。
論文 参考訳(メタデータ) (2022-05-16T22:59:52Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。