論文の概要: Regression with Deep Learning for Sensor Performance Optimization
- arxiv url: http://arxiv.org/abs/2002.11044v2
- Date: Sat, 27 Mar 2021 15:18:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:10:09.716798
- Title: Regression with Deep Learning for Sensor Performance Optimization
- Title(参考訳): センサ性能最適化のためのディープラーニングによる回帰
- Authors: Ruthvik Vaila, Denver Lloyd, Kevin Tetz
- Abstract要約: 我々はKerasとNumPyによって実現されたディープラーニングによる非線形回帰を再適用した。
特に、深層学習を用いて産業センサの入力と出力の非線形関係をパラメータ化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks with at least two hidden layers are called deep networks.
Recent developments in AI and computer programming in general has led to
development of tools such as Tensorflow, Keras, NumPy etc. making it easier to
model and draw conclusions from data. In this work we re-approach non-linear
regression with deep learning enabled by Keras and Tensorflow. In particular,
we use deep learning to parametrize a non-linear multivariate relationship
between inputs and outputs of an industrial sensor with an intent to optimize
the sensor performance based on selected key metrics.
- Abstract(参考訳): 少なくとも2つの隠れ層を持つニューラルネットワークはディープネットワークと呼ばれる。
AIやコンピュータプログラミング全般の最近の進歩は、データから結論をモデル化し引き出すのを容易にするTensorflow、Keras、NumPyなどのツールの開発につながっている。
本研究では、kerasとtensorflowによって実現されたディープラーニングを用いて、非線形回帰を再適用する。
特に,産業用センサの入力と出力の非線形多変量関係をパラメータ化するためにディープラーニングを用いて,選択したキーメトリクスに基づいてセンサ性能を最適化する。
関連論文リスト
- Optimizing Sensor Network Design for Multiple Coverage [0.9668407688201359]
本稿では,より効率的で堅牢なセンサネットワークを設計するgreedy (next-best-view)アルゴリズムの目的関数を提案する。
また、ほぼリアルタイムで計算を行うアルゴリズムを高速化するためのディープラーニングモデルも導入する。
論文 参考訳(メタデータ) (2024-05-15T05:13:20Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - EvoPruneDeepTL: An Evolutionary Pruning Model for Transfer Learning
based Deep Neural Networks [15.29595828816055]
本稿では,トランスファーラーニングに基づくディープニューラルネットワークのための進化的プルーニングモデルを提案する。
EvoPruneDeepTLは、最後の完全に接続されたレイヤを遺伝的アルゴリズムによって最適化されたスパースレイヤで置き換える。
その結果,ネットワーク全体の計算効率に対するEvoPruneDeepTLと特徴選択の寄与が示された。
論文 参考訳(メタデータ) (2022-02-08T13:07:55Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Predictive coding, precision and natural gradients [2.1601966913620325]
学習精度の高い階層型予測符号化ネットワークは,教師あり学習課題や教師なし学習課題を解くことができることを示す。
イメージ入力の教師なし自動符号化に適用すると、決定論的ネットワークは階層的に整理され、非絡み合った埋め込みを生成する。
論文 参考訳(メタデータ) (2021-11-12T21:05:03Z) - Consistency Training of Multi-exit Architectures for Sensor Data [0.07614628596146598]
本稿では,一貫した出口訓練(Continuous exit training)と呼ばれるマルチエクイットアーキテクチャの堅牢なトレーニングのための,新規かつアーキテクチャに依存しないアプローチを提案する。
弱監督を利用して、モデルの出力を整合性トレーニングと整合させ、ネットワーク内の出口に対してマルチタスク学習方式で二重空間を協調的に最適化する。
論文 参考訳(メタデータ) (2021-09-27T17:11:25Z) - Efficient Training of Deep Convolutional Neural Networks by Augmentation
in Embedding Space [24.847651341371684]
データが少ないアプリケーションでは、ディープラーニングモデルの一般化を改善するために、転送学習とデータ拡張技術が一般的に使用される。
生入力空間におけるデータ拡張を伴う転送モデルを微調整すると、拡張入力毎に全ネットワークを実行するのに高い計算コストがかかる。
本稿では, 生の入力空間における拡張を, 埋め込み空間において純粋に作用する近似的に置き換える手法を提案する。
論文 参考訳(メタデータ) (2020-02-12T03:26:33Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z) - AdderNet: Do We Really Need Multiplications in Deep Learning? [159.174891462064]
我々は、深層ニューラルネットワークにおける膨大な乗算を、計算コストを削減するためにはるかに安価な加算のために取引するための加算器ネットワーク(AdderNets)を提案する。
本稿では,AdderNets のバックプロパゲーション手法を提案する。
その結果、提案されたAdderNetsは、ImageNetデータセット上でResNet-50を使用して、74.9%のTop-1精度91.7%のTop-5精度を達成することができる。
論文 参考訳(メタデータ) (2019-12-31T06:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。