論文の概要: A Bayesian regularization-backpropagation neural network model for
peeling computations
- arxiv url: http://arxiv.org/abs/2006.16409v3
- Date: Mon, 24 Jan 2022 12:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:26:05.872905
- Title: A Bayesian regularization-backpropagation neural network model for
peeling computations
- Title(参考訳): ベイズ正規化-バックプロパゲーションニューラルネットワークモデルによる剥離計算
- Authors: Saipraneeth Gouravaraju, Jyotindra Narayan, Roger A. Sauer, Sachin
Singh Gautam
- Abstract要約: 入力データは有限要素(FE)剥離結果から取得される。
ニューラルネットワークは、FEデータセットの75%でトレーニングされる。
BR-BPNNモデルとk-fold法を併用することにより,剥離挙動を推定できる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian regularization-backpropagation neural network (BR-BPNN) model is
employed to predict some aspects of the gecko spatula peeling viz. the
variation of the maximum normal and tangential pull-off forces and the
resultant force angle at detachment with the peeling angle. K-fold cross
validation is used to improve the effectiveness of the model. The input data is
taken from finite element (FE) peeling results. The neural network is trained
with 75% of the FE dataset. The remaining 25% are utilized to predict the
peeling behavior. The training performance is evaluated for every change in the
number of hidden layer neurons to determine the optimal network structure. The
relative error is calculated to draw a clear comparison between predicted and
FE results. It is shown that the BR-BPNN model in conjunction with k-fold
technique has significant potential to estimate the peeling behavior.
- Abstract(参考訳): ベイジアン正則化バックプロパゲーションニューラルネットワーク(br-bpnn)モデルを用いてgeckoヘラ剥離vizのいくつかの側面を予測する。
k-foldクロスバリデーションは、モデルの有効性を改善するために使用される。
入力データは有限要素(FE)剥離結果から取得される。
ニューラルネットワークは、FEデータセットの75%でトレーニングされる。
残りの25%は剥離挙動を予測するために利用される。
最適なネットワーク構造を決定するために、隠れ層ニューロン数の変化毎にトレーニング性能を評価する。
相対誤差を算出し、予測結果とFE結果との明確な比較を行う。
BR-BPNNモデルとk-fold法を併用することにより,剥離挙動を推定できる可能性が示唆された。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Convolutional neural networks for valid and efficient causal inference [1.5469452301122177]
畳み込みニューラルネットワーク(CNN)は機械学習アプリケーションで成功している。
治療における平均因果効果の半パラメトリック推定におけるニュアンスモデルへのCNNの適用を検討する。
スウェーデン全人口を対象としたデータを用いて,早期退職が入院に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-01-27T14:16:55Z) - Bayesian Layer Graph Convolutioanl Network for Hyperspetral Image
Classification [24.91896527342631]
グラフ畳み込みネットワーク(GCN)ベースのモデルは、素晴らしいパフォーマンスを示している。
点推定に基づくディープラーニングフレームワークは、一般化が低く、分類結果の不確実性を定量化できない。
本稿では,点推定に基づくニューラルネットワークへの挿入層としてベイズ的アイデアを用いたベイズ的層を提案する。
HSIデータセットのサンプル不均衡問題を解決するためにGAN(Generative Adversarial Network)が構築されている。
論文 参考訳(メタデータ) (2022-11-14T12:56:56Z) - Variational Neural Networks [88.24021148516319]
本稿では,変分ニューラルネットワーク(VNN)と呼ばれるニューラルネットワークにおける不確実性推定手法を提案する。
VNNは、学習可能なサブレイヤで入力を変換することで、レイヤの出力分布のパラメータを生成する。
不確実性評価実験において、VNNはモンテカルロ・ドロップアウトやベイズ・バイ・バックプロパゲーション法よりも優れた不確実性が得られることを示す。
論文 参考訳(メタデータ) (2022-07-04T15:41:02Z) - Asymptotic Properties for Bayesian Neural Network in Besov Space [1.90365714903665]
スパイク・アンド・スラブの事前整合性を用いたベイズニューラルネットワークは, 真の回帰関数がベソフ空間にある場合, ほぼ最小収束率を有することを示す。
保証された特性を持つ実用的なニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-06-01T05:47:06Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Kalman Bayesian Neural Networks for Closed-form Online Learning [5.220940151628734]
閉形式ベイズ推論によるBNN学習のための新しい手法を提案する。
出力の予測分布の計算と重み分布の更新をベイズフィルタおよび平滑化問題として扱う。
これにより、勾配降下のないシーケンシャル/オンライン方式でネットワークパラメータをトレーニングするためのクローズドフォーム表現が可能になる。
論文 参考訳(メタデータ) (2021-10-03T07:29:57Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Bayesian Neural Network via Stochastic Gradient Descent [0.0]
本稿では,勾配推定手法を用いてベイズニューラルネットワークに勾配推定を適用する方法を示す。
我々の研究はベイジアンニューラルネットワークを用いた回帰手法のこれまでの状況を大きく上回っている。
論文 参考訳(メタデータ) (2020-06-04T18:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。