論文の概要: Artificial Neural Nets and the Representation of Human Concepts
- arxiv url: http://arxiv.org/abs/2312.05337v2
- Date: Tue, 26 Mar 2024 14:09:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 22:23:06.318801
- Title: Artificial Neural Nets and the Representation of Human Concepts
- Title(参考訳): 人工ニューラルネットと人間概念の表現
- Authors: Timo Freiesleben,
- Abstract要約: 機械学習(ML)コミュニティは、ANNが複雑なタスクを実行するために抽象的なヒューマンコンセプトを開発する必要があるという物語を共有している。
さらには、これらの概念がネットワークの個々の単位に保存されていると考える人もいる。
ANNは複雑な予測タスクを実際に実行でき、人間や非人間の概念を学習することができると結論付けます。
- 参考スコア(独自算出の注目度): 2.365973885231265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: What do artificial neural networks (ANNs) learn? The machine learning (ML) community shares the narrative that ANNs must develop abstract human concepts to perform complex tasks. Some go even further and believe that these concepts are stored in individual units of the network. Based on current research, I systematically investigate the assumptions underlying this narrative. I conclude that ANNs are indeed capable of performing complex prediction tasks, and that they may learn human and non-human concepts to do so. However, evidence indicates that ANNs do not represent these concepts in individual units.
- Abstract(参考訳): 人工知能(ANN)は何を学ぶのか?
機械学習(ML)コミュニティは、ANNが複雑なタスクを実行するために抽象的なヒューマンコンセプトを開発する必要があるという物語を共有している。
さらには、これらの概念がネットワークの個々の単位に保存されていると考える人もいる。
現在の研究に基づいて,この物語の根底にある前提を体系的に検討する。
ANNは複雑な予測タスクを実際に実行でき、人間や非人間の概念を学習することができると結論付けます。
しかし、ANNは個々の単位においてこれらの概念を表現していないことを示す証拠がある。
関連論文リスト
- Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大型言語モデル(LLM)における人間に似た概念表現の出現について検討した。
その結果、LLMは定義記述から概念を推論し、共有された文脈に依存しない構造に収束する表現空間を構築することができた。
我々の研究は、LLMが複雑な人間の認知を理解するための貴重なツールであり、人工知能と人間の知能の整合性を高めるための道を開くという見解を支持している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - LLM-assisted Concept Discovery: Automatically Identifying and Explaining Neuron Functions [15.381209058506078]
以前の研究は、概念の例や事前に定義された概念のセットに基づいて、ニューロンに関連づけられた概念を持っている。
本稿では,マルチモーダルな大規模言語モデルを用いて,自動的かつオープンな概念発見を提案する。
我々は,この新たな画像に対して,サンプルと反例を生成し,ニューロンの反応を評価することにより,それぞれの概念を検証する。
論文 参考訳(メタデータ) (2024-06-12T18:19:37Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Mindstorms in Natural Language-Based Societies of Mind [110.05229611910478]
ミンスキーの「心の社会」とシュミットフーバーの「思考の学習」は、大規模なマルチモーダルニューラルネットワーク(NN)の多様な社会に刺激を与えた。
最近のNNベースの心の社会の実装は、大きな言語モデル(LLM)と、自然言語インタフェースを介してコミュニケーションする他のNNベースの専門家で構成されている。
これらの自然言語に基づく心の社会(NLSOMs)では、新しいエージェント(全員が同じ普遍的なシンボル言語を介して通信する)がモジュール化された方法で簡単に追加される。
論文 参考訳(メタデータ) (2023-05-26T16:21:25Z) - Symbiosis of an artificial neural network and models of biological
neurons: training and testing [0.0]
生体ニューロンの数学的モデルからなる人工ニューラルネットワーク(ANN)の特徴を作成・同定する可能性を示す。
FitzHugh--Nagumo (FHN) システムは、単純化されたニューロン活性を示すモデルの一例として用いられる。
論文 参考訳(メタデータ) (2023-02-03T10:06:54Z) - Models Developed for Spiking Neural Networks [0.5801044612920815]
スパイキングニューラルネットワーク(SNN)は長い間存在しており、脳のダイナミクスを理解するために研究されてきた。
本研究では,画像分類タスクにおけるSNNの構造と性能について検討した。
比較は、これらのネットワークがより複雑な問題に対して優れた能力を示すことを示している。
論文 参考訳(メタデータ) (2022-12-08T16:18:53Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - C-SENN: Contrastive Self-Explaining Neural Network [0.5939410304994348]
本研究では、コントラスト学習と概念学習を組み合わせることで、概念の可読性とタスクの精度を向上させる。
我々はこのモデルをContrastive Self-Explaining Neural Network (C-SENN)と呼ぶ。
論文 参考訳(メタデータ) (2022-06-20T05:23:02Z) - Learning with Capsules: A Survey [73.31150426300198]
カプセルネットワークは、オブジェクト中心の表現を学習するための畳み込みニューラルネットワーク(CNN)に代わるアプローチとして提案された。
CNNとは異なり、カプセルネットワークは部分的に階層的な関係を明示的にモデル化するように設計されている。
論文 参考訳(メタデータ) (2022-06-06T15:05:36Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。