論文の概要: Learning Hierarchically-Structured Concepts II: Overlapping Concepts,
and Networks With Feedback
- arxiv url: http://arxiv.org/abs/2304.09540v1
- Date: Wed, 19 Apr 2023 10:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:02:04.526166
- Title: Learning Hierarchically-Structured Concepts II: Overlapping Concepts,
and Networks With Feedback
- Title(参考訳): 階層構造概念の学習 II: 重なり合う概念とフィードバックによるネットワーク
- Authors: Nancy Lynch and Frederik Mallmann-Trenn
- Abstract要約: Lynch and Mallmann-Trenn (Neural Networks, 2021)では、単純な木構造の概念とフィードフォワード層ネットワークを検討した。
ここでは、モデルを2つの方法で拡張する: 異なる概念を持つ子供間で限られた重複を許容し、ネットワークにフィードバックエッジを含めることを可能にする。
認識のためのアルゴリズムと学習のためのアルゴリズムを記述・分析する。
- 参考スコア(独自算出の注目度): 4.847980206213334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We continue our study from Lynch and Mallmann-Trenn (Neural Networks, 2021),
of how concepts that have hierarchical structure might be represented in
brain-like neural networks, how these representations might be used to
recognize the concepts, and how these representations might be learned.
In Lynch and Mallmann-Trenn (Neural Networks, 2021), we considered simple
tree-structured concepts and feed-forward layered networks. Here we extend the
model in two ways: we allow limited overlap between children of different
concepts, and we allow networks to include feedback edges.
For these more general cases, we describe and analyze algorithms for
recognition and algorithms for learning.
- Abstract(参考訳): Lynch と Mallmann-Trenn (Neural Networks, 2021) による研究を継続し、階層構造を持つ概念が脳のようなニューラルネットワークでどのように表現されるか、これらの表現が概念の認識にどのように使用されるか、そしてこれらの表現がどのように学習されるかについて研究する。
lynch and mallmann-trenn (neural networks, 2021) では,単純な木構造概念とフィードフォワード層ネットワークを検討した。
ここではモデルを2つの方法で拡張する: 異なる概念を持つ子供たちの間のオーバーラップを制限し、ネットワークがフィードバックのエッジを含むようにする。
より一般的なケースでは、認識のためのアルゴリズムと学習のためのアルゴリズムを記述し分析する。
関連論文リスト
- Multi-Neuron Representations of Hierarchical Concepts in Spiking Neural Networks [0.0]
階層的概念が階層型ニューラルネットワークの3つのタイプでどのように表現できるかを説明する。
目的は、概念に関する部分的な情報が提示されたときや、ネットワーク内のいくつかのニューロンが失敗したときの認識を支援することである。
論文 参考訳(メタデータ) (2024-01-09T15:56:43Z) - Simple Mechanisms for Representing, Indexing and Manipulating Concepts [46.715152257557804]
我々は、概念の具体的な表現やシグネチャを生成するために、そのモーメント統計行列を見ることで概念を学ぶことができると論じる。
概念が交差しているとき、概念のシグネチャを使用して、関連する多くの相互交差した概念の共通テーマを見つけることができる。
論文 参考訳(メタデータ) (2023-10-18T17:54:29Z) - Concept Decomposition for Visual Exploration and Inspiration [53.06983340652571]
本稿では,視覚概念を階層木構造に符号化した異なる視覚的側面に分解する手法を提案する。
我々は、概念分解と生成のために、大きな視覚言語モデルとそのリッチな潜在空間を利用する。
論文 参考訳(メタデータ) (2023-05-29T16:56:56Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - Learning with Capsules: A Survey [73.31150426300198]
カプセルネットワークは、オブジェクト中心の表現を学習するための畳み込みニューラルネットワーク(CNN)に代わるアプローチとして提案された。
CNNとは異なり、カプセルネットワークは部分的に階層的な関係を明示的にモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-06-06T15:05:36Z) - Binary Multi Channel Morphological Neural Network [5.551756485554158]
本稿では,畳み込みニューラルネットワーク上に構築されたBiMoNNを紹介する。
ネットワーク全体をバイナライズするために,BiMoNNとモルフォロジー演算子との等価性を実証する。
これらは古典的形態学演算子を学習し、医用画像アプリケーションで有望な結果を示すことができる。
論文 参考訳(メタデータ) (2022-04-19T09:26:11Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - From Common Sense Reasoning to Neural Network Models through Multiple
Preferences: an overview [0.0]
本稿では、条件論理と優先論理とニューラルネットワークモデルの関係について論じる。
提案する概念的マルチ参照セマンティクスは,近年,デファシブルな記述ロジックに導入されている。
本稿では、自己組織化マップと多層受容器の事例を通して、一般的なアプローチについて述べる。
論文 参考訳(メタデータ) (2021-07-10T16:25:19Z) - Learning Hierarchically Structured Concepts [3.9795499448909024]
生物学的に妥当なニューラルネットワークが階層的に構造化された概念をどのように認識できるかを示す。
学習においては,オジャの規則を正式に分析し,シナプスの重みを調節する生物学的に有望な規則を定式化した。
学習結果を低境界で補完し、ある階層的な深さの概念を認識するためには、ニューラルネットワークは対応する複数の層を持つ必要がある、と主張する。
論文 参考訳(メタデータ) (2019-09-10T15:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。