論文の概要: Supervised Hebbian learning: toward eXplainable AI
- arxiv url: http://arxiv.org/abs/2203.01304v1
- Date: Wed, 2 Mar 2022 18:46:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 17:36:30.831064
- Title: Supervised Hebbian learning: toward eXplainable AI
- Title(参考訳): supervised hebbian learning: 説明可能なaiを目指して
- Authors: Francesco Alemanno, Miriam Aquaro, Ido Kanter, Adriano Barra, Elena
Agliari
- Abstract要約: 我々は,ホップフィールドモデルにぼやけた例をフィードすれば,教師なし学習プロトコルと教師なし学習プロトコルの両方を定義できることを示した。
また、ランダムで構造化されていないデータセットに対して、教師付き学習規則を備えたホップフィールドモデルが制限されたボルツマンマシンと等価であることを証明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In neural network's Literature, {\em Hebbian learning} traditionally refers
to the procedure by which the Hopfield model and its generalizations {\em
store} archetypes (i.e., definite patterns that are experienced just once to
form the synaptic matrix). However, the term {\em learning} in Machine Learning
refers to the ability of the machine to extract features from the supplied
dataset (e.g., made of blurred examples of these archetypes), in order to make
its own representation of the unavailable archetypes. Here we prove that, if we
feed the Hopfield model with blurred examples, we can define both {\em
supervised} and {\em unsupervised} learning protocols by which the network can
possibly infer the archetypes and we detect the correct control parameters
(including the dataset size and its quality) to depict a phase diagram for the
system performance. We also prove that, for random, structureless datasets, the
Hopfield model equipped with a supervised learning rule is equivalent to a
restricted Boltzmann machine and this suggests an optimal training routine; the
robustness of results is also checked numerically for structured datasets. This
work contributes to pave a solid way toward eXplainable AI (XAI).
- Abstract(参考訳): ニューラルネットワークの文献において、"em hebbian learning" は伝統的にホップフィールドモデルとその一般化である "em store" アーチタイプ(すなわちシナプス行列を形成するために一度だけ経験される定型パターン)の手順を指す。
しかし、機械学習における「機械学習」という言葉は、マシンが供給されたデータセット(例えば、これらのアーチタイプのぼやけた例)から特徴を抽出し、利用できないアーチタイプの独自の表現を作る能力を指す。
ここでは, ホップフィールドモデルにぼやけた例を施すと, ネットワークがアーチタイプを推測できるような, 教師なし学習プロトコルと教師なし学習プロトコルの両方を定義でき, システム性能のフェーズ図を記述するために, 適切な制御パラメータ(データセットサイズとその品質を含む)を検出できることを示す。
また、ランダムな構造のないデータセットに対しては、教師付き学習ルールを備えたホップフィールドモデルが制限ボルツマンマシンと同値であることを示し、最適なトレーニングルーチンを示唆する。
この研究は、eXplainable AI(XAI)への確固たる道を開いた。
関連論文リスト
- Transformers are uninterpretable with myopic methods: a case study with
bounded Dyck grammars [36.780346257061495]
解釈可能性法は、訓練されたモデルによって実装されたアルゴリズムを理解することを目的としている。
私たちは、モデルの個々の部分にのみフォーカスするメソッドの批判的な見解を取ります。
論文 参考訳(メタデータ) (2023-12-03T15:34:46Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - Hopfield model with planted patterns: a teacher-student self-supervised
learning model [0.0]
本稿では,Boltzmann 機械を用いて教師が指導する自己教師型学習問題を定式化できることを示す。
位相図をトレーニングセットのサイズで解析することにより,学習性能を解析する。
論文 参考訳(メタデータ) (2023-04-26T17:50:52Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - The emergence of a concept in shallow neural networks [0.0]
我々は,定型だが不可能なアーチタイプを曖昧にコピーした非構造化データセット上で訓練された制限されたボルツマンマシン(RBM)を考える。」
RBMが古型を学習できる限界標本サイズが存在することを示す。
論文 参考訳(メタデータ) (2021-09-01T15:56:38Z) - Capturing the learning curves of generic features maps for realistic
data sets with a teacher-student model [24.679669970832396]
教師学生モデルは、高次元教師付き学習タスクの典型的なケースパフォーマンスをクローズドな形で研究できる強力なフレームワークを提供する。
この設定では、ラベルはデータに割り当てられ、しばしばガウスのi.i.dとされる。
-教師モデルにより、ラベルを生成するパラメータの復元において、学生モデルの典型的な性能を特徴付けることが目的である。
論文 参考訳(メタデータ) (2021-02-16T12:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。