論文の概要: Bayesian Optimisation-Assisted Neural Network Training Technique for
Radio Localisation
- arxiv url: http://arxiv.org/abs/2203.04032v1
- Date: Tue, 8 Mar 2022 11:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 16:11:02.236383
- Title: Bayesian Optimisation-Assisted Neural Network Training Technique for
Radio Localisation
- Title(参考訳): ベイズ最適化支援ニューラルネットワークによる電波局所化訓練手法
- Authors: Xingchi Liu, Peizheng Li and Ziming Zhu
- Abstract要約: 無線信号ベースの(屋内)ローカライゼーション技術は、スマートファクトリやウェアハウスといったIoTアプリケーションにとって重要である。
異なる無線プロトコルは送信信号に異なる特徴を持ち、ローカライゼーションに利用することができる。
ニューラルネットワークの手法は、しばしば十分な性能を得るために、注意深く構成されたモデルと広範なトレーニングプロセスに依存している。
- 参考スコア(独自算出の注目度): 3.0981875303080804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radio signal-based (indoor) localisation technique is important for IoT
applications such as smart factory and warehouse. Through machine learning,
especially neural networks methods, more accurate mapping from signal features
to target positions can be achieved. However, different radio protocols, such
as WiFi, Bluetooth, etc., have different features in the transmitted signals
that can be exploited for localisation purposes. Also, neural networks methods
often rely on carefully configured models and extensive training processes to
obtain satisfactory performance in individual localisation scenarios. The above
poses a major challenge in the process of determining neural network model
structure, or hyperparameters, as well as the selection of training features
from the available data. This paper proposes a neural network model
hyperparameter tuning and training method based on Bayesian optimisation.
Adaptive selection of model hyperparameters and training features can be
realised with minimal need for manual model training design. With the proposed
technique, the training process is optimised in a more automatic and efficient
way, enhancing the applicability of neural networks in localisation.
- Abstract(参考訳): 無線信号ベースの(屋内)ローカライゼーション技術は、スマートファクトリやウェアハウスといったIoTアプリケーションにとって重要である。
機械学習、特にニューラルネットワークの手法により、信号特徴から目標位置へのより正確なマッピングが達成できる。
しかし、wi-fi、bluetoothなどの異なる無線プロトコルは、送信信号に異なる特徴を持ち、ローカライズのために悪用することができる。
また、ニューラルネットワーク手法は、個々のローカライゼーションシナリオで十分なパフォーマンスを得るために、慎重に設定されたモデルと広範なトレーニングプロセスに依存することが多い。
上記の結果は、ニューラルネットワークのモデル構造やハイパーパラメータを決定するプロセスや、利用可能なデータからトレーニング機能を選択するプロセスにおいて大きな課題となる。
本稿では,ベイズ最適化に基づくニューラルネットワークモデルのハイパーパラメータチューニングとトレーニング手法を提案する。
モデルハイパーパラメータとトレーニング機能の適応的な選択は、手作業によるモデルトレーニング設計の必要最小限で実現できる。
提案手法により、トレーニングプロセスはより自動的で効率的な方法で最適化され、ローカライゼーションにおけるニューラルネットワークの適用性を高める。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Epistemic Modeling Uncertainty of Rapid Neural Network Ensembles for
Adaptive Learning [0.0]
新しいタイプのニューラルネットワークは、高速ニューラルネットワークパラダイムを用いて提示される。
提案したエミュレータを組み込んだニューラルネットワークは,予測精度を損なうことなく,ほぼ瞬時に学習できることが判明した。
論文 参考訳(メタデータ) (2023-09-12T22:34:34Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Supervised training of spiking neural networks for robust deployment on
mixed-signal neuromorphic processors [2.6949002029513167]
混合信号アナログ/デジタル電子回路はスパイキングニューロンやシナプスを非常に高いエネルギー効率でエミュレートすることができる。
ミスマッチは、同一構成ニューロンとシナプスの効果的なパラメータの違いとして表現される。
ミスマッチに対する堅牢性や,その他の一般的なノイズ源を最大化することで,この課題に対処する,教師付き学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-12T09:20:49Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Hyperparameter Optimization in Binary Communication Networks for
Neuromorphic Deployment [4.280642750854163]
ニューロモルフィック展開のためのニューラルネットワークのトレーニングは簡単ではない。
本稿では,ニューロモルフィックハードウェアに展開可能なバイナリ通信ネットワークをトレーニングするためのアルゴリズムのハイパーパラメータを最適化するためのベイズ的手法を提案する。
このアルゴリズムでは,データセット毎のハイパーパラメータを最適化することにより,データセット毎の前の最先端よりも精度が向上できることが示されている。
論文 参考訳(メタデータ) (2020-04-21T01:15:45Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - On transfer learning of neural networks using bi-fidelity data for
uncertainty propagation [0.0]
本研究では,高忠実度モデルと低忠実度モデルの両方から生成された学習データを用いた伝達学習手法の適用について検討する。
前者のアプローチでは、低忠実度データに基づいて、入力を関心の出力にマッピングするニューラルネットワークモデルを訓練する。
次に、高忠実度データを使用して、低忠実度ネットワークの上層(s)のパラメータを適応させたり、より単純なニューラルネットワークをトレーニングして、低忠実度ネットワークの出力を高忠実度モデルのパラメータにマッピングする。
論文 参考訳(メタデータ) (2020-02-11T15:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。