論文の概要: Training Neural Networks for Solving 1-D Optimal Piecewise Linear
Approximation
- arxiv url: http://arxiv.org/abs/2110.08259v1
- Date: Thu, 14 Oct 2021 14:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 06:21:23.982262
- Title: Training Neural Networks for Solving 1-D Optimal Piecewise Linear
Approximation
- Title(参考訳): 1次元最適線形近似のためのニューラルネットワークの学習
- Authors: Hangcheng Dong, Jingxiao Liao, Yan Wang, Yixin Chen, Bingguo Liu, Dong
Ye and Guodong Liu
- Abstract要約: 1次元最適ピースワイド線形近似(PWLA)問題について検討し,格子ニューラルネットワーク(LNN)を設計したニューラルネットワークと関連づける。
我々の主な貢献は、PWLA問題の最適解を特徴づける定理を提案し、それを解決するためのLNN法を提案することである。
提案したLNNを近似タスクで評価し,LNNの性能向上のための経験的手法を適用した。
- 参考スコア(独自算出の注目度): 22.379514488009224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the interpretability of deep learning has attracted a lot of
attention. A plethora of methods have attempted to explain neural networks by
feature visualization, saliency maps, model distillation, and so on. However,
it is hard for these methods to reveal the intrinsic properties of neural
networks. In this work, we studied the 1-D optimal piecewise linear
approximation (PWLA) problem, and associated it with a designed neural network,
named lattice neural network (LNN). We asked four essential questions as
following: (1) What are the characters of the optimal solution of the PWLA
problem? (2) Can an LNN converge to the global optimum? (3) Can an LNN converge
to the local optimum? (4) Can an LNN solve the PWLA problem? Our main
contributions are that we propose the theorems to characterize the optimal
solution of the PWLA problem and present the LNN method for solving it. We
evaluated the proposed LNNs on approximation tasks, forged an empirical method
to improve the performance of LNNs. The experiments verified that our LNN
method is competitive with the start-of-the-art method.
- Abstract(参考訳): 近年,深層学習の解釈性が注目されている。
特徴可視化やサリエンシマップ,モデルの蒸留などによって,ニューラルネットワークの説明方法が数多く試みられている。
しかし,これらの手法がニューラルネットワークの固有特性を明らかにすることは困難である。
本研究では,1次元最適ピースワイド線形近似(PWLA)問題について検討し,格子ニューラルネットワーク(LNN)を設計したニューラルネットワークと関連づけた。
我々は,(1)pwla問題の最適解のキャラクタは何か?
2) LNN は大域的最適に収束できるか?
(3)LNNは局所最適値に収束できるか?
(4)LNNはPWLA問題を解くことができるか?
我々の主な貢献は、PWLA問題の最適解を特徴づける定理を提案し、それを解決するためのLNN法を提案することである。
提案したLNNを近似タスクで評価し,LNNの性能向上のための経験的手法を適用した。
実験の結果,LNN法は最先端手法と競合することがわかった。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Operator Learning Enhanced Physics-informed Neural Networks for Solving
Partial Differential Equations Characterized by Sharp Solutions [10.999971808508437]
そこで我々は,OL-PINN(Operator Learning Enhanced Physics-informed Neural Networks)と呼ばれる新しいフレームワークを提案する。
提案手法は, 強い一般化能力を実現するために, 少数の残差点しか必要としない。
精度を大幅に向上すると同時に、堅牢なトレーニングプロセスも保証する。
論文 参考訳(メタデータ) (2023-10-30T14:47:55Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Optimization-Informed Neural Networks [0.6853165736531939]
制約付き非線形最適化問題を解くために最適化インフォームドニューラルネットワーク(OINN)を提案する。
簡単に言うと、OINNはCNLPをニューラルネットワークトレーニング問題に変換する。
提案手法の有効性は古典的な問題の収集を通じて実証される。
論文 参考訳(メタデータ) (2022-10-05T09:28:55Z) - On Representing Linear Programs by Graph Neural Networks [30.998508318941017]
グラフニューラルネットワーク(GNN)は最適化問題に適した機械学習モデルであると考えられている。
本稿では,線形プログラム(LP)問題にGNNを適用する理論的基礎を確立する。
適切に構築されたGNNは、幅広いクラスにおける各LPに対して、実現可能性、有界性、最適解を確実に予測できることを示す。
論文 参考訳(メタデータ) (2022-09-25T18:27:33Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - A Spiking Neural Network Structure Implementing Reinforcement Learning [0.0]
本稿では,SNNの構造について述べる。
本論文で考察したSNN構造は、LIFAT(Leky Integration-and-fire neuron with adapt threshold)モデルの一般化によって記述されたスパイクニューロンを含む。
私の概念は、RLタスク特性に関する非常に一般的な仮定に基づいており、適用性に目に見える制限はありません。
論文 参考訳(メタデータ) (2022-04-09T09:08:10Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。