論文の概要: Synthetic Categorical Restructuring large Or How AIs Gradually Extract Efficient Regularities from Their Experience of the World
- arxiv url: http://arxiv.org/abs/2503.10643v1
- Date: Tue, 25 Feb 2025 16:49:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-23 07:37:01.504504
- Title: Synthetic Categorical Restructuring large Or How AIs Gradually Extract Efficient Regularities from Their Experience of the World
- Title(参考訳): 世界の経験からAIがいかに効率の良い規則を段階的に抽出するか
- Authors: Michael Pichat, William Pogrund, Paloma Pichat, Armanouche Gasparian, Samuel Demarchi, Martin Corbet, Alois Georgeon, Theo Dasilva, Michael Veillet-Guillem,
- Abstract要約: 人工知能の神経心理学における本研究は、合成カテゴリー再構成の現象を研究する。
我々の遺伝ニューロンビューアは、GPT2-XLのパーセプトロン層0から1への移行中に発生する合成カテゴリー再構成現象を可視化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: How do language models segment their internal experience of the world of words to progressively learn to interact with it more efficiently? This study in the neuropsychology of artificial intelligence investigates the phenomenon of synthetic categorical restructuring, a process through which each successive perceptron neural layer abstracts and combines relevant categorical sub-dimensions from the thought categories of its previous layer. This process shapes new, even more efficient categories for analyzing and processing the synthetic system's own experience of the linguistic external world to which it is exposed. Our genetic neuron viewer, associated with this study, allows visualization of the synthetic categorical restructuring phenomenon occurring during the transition from perceptron layer 0 to 1 in GPT2-XL.
- Abstract(参考訳): 言語モデルは、単語の世界における内部経験をどのようにセグメント化して、より効率的に対話することを学ぶのか?
人工知能の神経心理学における研究は、それぞれの連続する知覚神経層が、その前の層の思考カテゴリから関連するカテゴリのサブ次元を抽象化し結合する過程である、合成カテゴリー再構成の現象を調査する。
このプロセスは、合成システムの言語外界における自身の経験を分析し、処理するための、より効率的なカテゴリを新たに形成する。
我々の遺伝ニューロンビューアは、GPT2-XLのパーセプトロン層0から1への移行中に発生する合成カテゴリー再構成現象を可視化することができる。
関連論文リスト
- Emergence of the Primacy Effect in Structured State-Space Models [1.4594704809280983]
人工ニューラルネットワーク(ANN)モデルは通常、時間とともに単調に崩壊するメモリで設計される。
構造化状態空間モデル(Structured state-space model)と呼ばれる最近開発されたANNアーキテクチャは、トレーニングと評価の際、予備効果を示す。
論文 参考訳(メタデータ) (2025-02-19T13:55:32Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Brain-like Functional Organization within Large Language Models [58.93629121400745]
人間の脳は長い間人工知能(AI)の追求にインスピレーションを与えてきた
最近のニューロイメージング研究は、人工ニューラルネットワーク(ANN)の計算的表現と、人間の脳の刺激に対する神経反応との整合性の説得力のある証拠を提供する。
本研究では、人工ニューロンのサブグループと機能的脳ネットワーク(FBN)を直接結合することで、このギャップを埋める。
このフレームワークはANサブグループをFBNにリンクし、大きな言語モデル(LLM)内で脳に似た機能的組織を記述できる。
論文 参考訳(メタデータ) (2024-10-25T13:15:17Z) - Neuropsychology and Explainability of AI: A Distributional Approach to the Relationship Between Activation Similarity of Neural Categories in Synthetic Cognition [0.11235145048383502]
本稿では,人間の認知トークンの概念を応用した,人工ニューラルネットワークの説明可能性へのアプローチを提案する。
ニューロンが生成するカテゴリセグメントは、実際には入力ベクトル空間内のカテゴリサブ次元の重ね合わせの結果であることを示す。
論文 参考訳(メタデータ) (2024-10-23T05:27:09Z) - Neuropsychology of AI: Relationship Between Activation Proximity and Categorical Proximity Within Neural Categories of Synthetic Cognition [0.11235145048383502]
本研究は,認知心理学における新たな研究対象として,合成ニューラルコグニションに焦点を当てた。
目標は、言語モデルのニューラルネットワークをより説明しやすくすることだ。
このアプローチは、認知心理学から人工神経認知の解釈的構築への概念の変換を含む。
論文 参考訳(メタデータ) (2024-10-08T12:34:13Z) - Analysis of Argument Structure Constructions in a Deep Recurrent Language Model [0.0]
本稿では,再帰型ニューラルネットワークモデルにおけるArgument Structure Constructions(ASC)の表現と処理について検討する。
その結果, 文表現は, 全層にまたがる4つのASCに対応する異なるクラスタを形成することがわかった。
これは、脳に拘束された比較的単純なリカレントニューラルネットワークでさえ、様々な構成タイプを効果的に区別できることを示している。
論文 参考訳(メタデータ) (2024-08-06T09:27:41Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Learning Evolved Combinatorial Symbols with a Neuro-symbolic Generative
Model [35.341634678764066]
人間は限られたデータからリッチな概念を素早く理解することができる。
従来のアプローチと概念学習の強みを融合したニューロシンボリックジェネレーションモデルを提案する。
論文 参考訳(メタデータ) (2021-04-16T17:57:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。