論文の概要: Classifying States of the Hopfield Network with Improved Accuracy, Generalization, and Interpretability
- arxiv url: http://arxiv.org/abs/2503.03018v1
- Date: Tue, 04 Mar 2025 21:29:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:51.264824
- Title: Classifying States of the Hopfield Network with Improved Accuracy, Generalization, and Interpretability
- Title(参考訳): 精度の向上, 一般化, 解釈可能性を考慮したホップフィールドネットワークの分類
- Authors: Hayden McAlister, Anthony Robins, Lech Szymanski,
- Abstract要約: 本研究では、異なるプロトタイプタスクから派生した状態に基づいて、異なる分類モデルの一般化可能性について検討する。
単純なモデルは解釈可能なままの安定性比を上回ることがよく分かる。
- 参考スコア(独自算出の注目度): 1.2289361708127877
- License:
- Abstract: We extend the existing work on Hopfield network state classification, employing more complex models that remain interpretable, such as densely-connected feed-forward deep neural networks and support vector machines. The states of the Hopfield network can be grouped into several classes, including learned (those presented during training), spurious (stable states that were not learned), and prototype (stable states that were not learned but are representative for a subset of learned states). It is often useful to determine to what class a given state belongs to; for example to ignore spurious states when retrieving from the network. Previous research has approached the state classification task with simple linear methods, most notably the stability ratio. We deepen the research on classifying states from prototype-regime Hopfield networks, investigating how varying the factors strengthening prototypes influences the state classification task. We study the generalizability of different classification models when trained on states derived from different prototype tasks -- for example, can a network trained on a Hopfield network with 10 prototypes classify states from a network with 20 prototypes? We find that simple models often outperform the stability ratio while remaining interpretable. These models require surprisingly little training data and generalize exceptionally well to states generated by a range of Hopfield networks, even those that were trained on exceedingly different datasets.
- Abstract(参考訳): 我々はホップフィールドネットワークの状態分類に関する既存の研究を拡張し、密結合されたフィードフォワードディープニューラルネットワークやサポートベクターマシンなど、解釈可能なままのより複雑なモデルを採用する。
ホップフィールドネットワークの状態は、学習(訓練中に提示されるもの)、スプリアス(学習されていない安定な状態)、プロトタイプ(学習されていないが学習された状態のサブセットを代表するもの)など、いくつかのクラスに分類することができる。
与えられた状態がどのクラスに属しているかを判断することは、しばしば有用である。
従来の研究では、単純な線形手法で状態分類タスクにアプローチしており、特に安定性比が顕著である。
本研究では,プロトタイプ登録ホプフィールドネットワークからの状態の分類に関する研究を深め,プロトタイプの強化要因が状態の分類タスクに与える影響について検討する。
例えば、20のプロトタイプを持つネットワークから10のプロトタイプを持つHopfieldネットワークでトレーニングされたネットワークは、20のプロトタイプを持つネットワークから状態を分類できるだろうか?
単純なモデルは解釈可能なままの安定性比を上回ることがよく分かる。
これらのモデルは、驚くほど少ないトレーニングデータを必要とし、非常に異なるデータセットでトレーニングされたものでさえ、さまざまなホップフィールドネットワークによって生成された状態に対して、例外的にうまく一般化する。
関連論文リスト
- Prototype Analysis in Hopfield Networks with Hebbian Learning [1.2289361708127877]
高い相関状態を持つヘビアン学習は、劣化したメモリ性能をもたらす。
このような学習は、未学習状態が大きな相関部分集合の表現として現れるプロトタイプ形成に繋がることを示す。
このプロセスは、人間の認知におけるプロトタイプ学習と類似している。
論文 参考訳(メタデータ) (2024-05-29T01:03:48Z) - Context-Specific Refinements of Bayesian Network Classifiers [1.9136291802656262]
分類器の新しいクラスとベイズネットワークの関係について検討する。
モデルにデータ駆動学習ルーチンを導入し実装する。
この研究は、非対称情報を埋め込んだモデルが分類精度を高めることを実証している。
論文 参考訳(メタデータ) (2024-05-28T15:50:50Z) - A separability-based approach to quantifying generalization: which layer is best? [0.0]
未確認データへの一般化は、ディープラーニングの分類と基礎モデルではよく理解されていない。
サンプル領域を表すネットワークのキャパシティを評価するための新しい手法を提案する。
i) 高い分類精度は高い一般化可能性を示すものではなく、(ii) モデルの深い層が必ずしも最良を一般化するとは限らない。
論文 参考訳(メタデータ) (2024-05-02T17:54:35Z) - Neural Representations Reveal Distinct Modes of Class Fitting in
Residual Convolutional Networks [5.1271832547387115]
ニューラル表現の確率モデルを利用して、残余ネットワークがクラスにどのように適合するかを調べる。
調査対象モデルのクラスは均一に適合していないことがわかった。
神経表現の未発見構造は, トレーニング例の堅牢性と, 対向記憶の相関性を示す。
論文 参考訳(メタデータ) (2022-12-01T18:55:58Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Hopfield Networks is All You Need [8.508381229662907]
連続状態とそれに対応する更新ルールを備えた,現代的なホップフィールドネットワークを導入する。
新しいホップフィールドネットワークは、多くのパターンを指数関数的に(連想空間の次元で)保存し、1回の更新でパターンを検索し、指数関数的に小さな検索誤差を持つ。
さまざまな領域にまたがるホップフィールド層の適用性を示す。
論文 参考訳(メタデータ) (2020-07-16T17:52:37Z) - LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant
Analysis for Few-shot Learning [98.64231310584614]
Prototypeal Network (ProtoNet) は、各クラスのプロトタイプ表現までの距離を用いてメートル法学習と分類を行う、数発の学習フレームワークである。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。
論文 参考訳(メタデータ) (2020-06-15T11:56:30Z) - Text Classification with Few Examples using Controlled Generalization [58.971750512415134]
現在の実践は、トレーニング中に見えない単語を、類似した単語とマッピングするために、事前訓練された単語埋め込みに依存している。
私たちの代替案は、未ラベルのパースコーパスから派生したスパース事前訓練された表現から始まります。
これらのベクトル上のフィードフォワードネットワークは、特に低データシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2020-05-18T06:04:58Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。