論文の概要: Automating the Design and Development of Gradient Descent Trained Expert
System Networks
- arxiv url: http://arxiv.org/abs/2207.02845v1
- Date: Mon, 4 Jul 2022 18:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 12:50:50.219077
- Title: Automating the Design and Development of Gradient Descent Trained Expert
System Networks
- Title(参考訳): グラディエントDescent Trained Expert System Networkの設計と開発を自動化する
- Authors: Jeremy Straub
- Abstract要約: 従来の研究は、ニューラルネットワークの学習能力とエキスパートシステムの理解性と防御可能なロジックを概念的に組み合わせた、勾配降下訓練されたエキスパートシステムを導入していた。
本稿では,ニューラルネットワークと比較して,この重要な限界を克服する手法を提案する。
具体的には,より大規模で高密度なアプリケーションを必要とするルールファクトネットワークの利用を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Prior work introduced a gradient descent trained expert system that
conceptually combines the learning capabilities of neural networks with the
understandability and defensible logic of an expert system. This system was
shown to be able to learn patterns from data and to perform decision-making at
levels rivaling those reported by neural network systems. The principal
limitation of the approach, though, was the necessity for the manual
development of a rule-fact network (which is then trained using
backpropagation). This paper proposes a technique for overcoming this
significant limitation, as compared to neural networks. Specifically, this
paper proposes the use of larger and denser-than-application need rule-fact
networks which are trained, pruned, manually reviewed and then re-trained for
use. Multiple types of networks are evaluated under multiple operating
conditions and these results are presented and assessed. Based on these
individual experimental condition assessments, the proposed technique is
evaluated. The data presented shows that error rates as low as 3.9% (mean, 1.2%
median) can be obtained, demonstrating the efficacy of this technique for many
applications.
- Abstract(参考訳): 従来の研究は、ニューラルネットワークの学習能力とエキスパートシステムの理解性と防御可能なロジックを概念的に組み合わせた勾配降下訓練エキスパートシステムを導入していた。
このシステムは、データからパターンを学習し、ニューラルネットワークシステムによって報告されたパターンに匹敵するレベルで意思決定を行うことができる。
しかし、このアプローチの主な制限は、ルールファクトネットワーク(後にバックプロパゲーションを使用してトレーニングされる)の手動開発の必要性であった。
本稿では,ニューラルネットワークと比較して,この重要な限界を克服する手法を提案する。
具体的には,アプリケーションに必要なルールファクトネットワークを大規模かつ高密度に使用することを提案する。
複数種類のネットワークを複数の動作条件下で評価し,その結果を提示し,評価する。
これらの個別実験条件評価に基づいて,提案手法を評価する。
得られたデータによると、誤差率は3.9%(平均1.2%中央値)で、多くのアプリケーションでこの手法の有効性を示す。
関連論文リスト
- The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Excess Risk of Two-Layer ReLU Neural Networks in Teacher-Student
Settings and its Superiority to Kernel Methods [58.44819696433327]
教師回帰モデルにおける2層ReLUニューラルネットワークのリスクについて検討する。
学生ネットワークは、どの解法よりも確実に優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-30T02:51:36Z) - Deep transfer learning for system identification using long short-term
memory neural networks [0.0]
本稿では,パラメータの微調整と凍結という2種類のディープトランスファー学習を用いて,システム識別のためのデータと計算要件を削減することを提案する。
その結果,直接学習と比較して学習の10%から50%が高速化され,データや計算資源も節約されることがわかった。
論文 参考訳(メタデータ) (2022-04-06T23:39:06Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - A Hybrid Method for Training Convolutional Neural Networks [3.172761915061083]
本稿では,畳み込みニューラルネットワークの学習にバックプロパゲーションと進化戦略の両方を用いるハイブリッド手法を提案する。
画像分類のタスクにおいて,提案手法は定期的な訓練において改善可能であることを示す。
論文 参考訳(メタデータ) (2020-04-15T17:52:48Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - On transfer learning of neural networks using bi-fidelity data for
uncertainty propagation [0.0]
本研究では,高忠実度モデルと低忠実度モデルの両方から生成された学習データを用いた伝達学習手法の適用について検討する。
前者のアプローチでは、低忠実度データに基づいて、入力を関心の出力にマッピングするニューラルネットワークモデルを訓練する。
次に、高忠実度データを使用して、低忠実度ネットワークの上層(s)のパラメータを適応させたり、より単純なニューラルネットワークをトレーニングして、低忠実度ネットワークの出力を高忠実度モデルのパラメータにマッピングする。
論文 参考訳(メタデータ) (2020-02-11T15:56:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。