論文の概要: A Brain-Inspired Sequence Learning Model based on a Logic
- arxiv url: http://arxiv.org/abs/2308.12486v2
- Date: Mon, 6 Nov 2023 16:26:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 21:11:47.995091
- Title: A Brain-Inspired Sequence Learning Model based on a Logic
- Title(参考訳): 論理に基づく脳インスパイアされたシーケンス学習モデル
- Authors: Bowen Xu
- Abstract要約: 本稿では,非公理論理で解釈可能なシーケンス学習モデルの設計と試験を行う。
その結果、モデルは異なるレベルの難易度でうまく機能することがわかった。
- 参考スコア(独自算出の注目度): 6.653734987585243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequence learning is an essential aspect of intelligence. In Artificial
Intelligence, sequence prediction task is usually used to test a sequence
learning model. In this paper, a model of sequence learning, which is
interpretable through Non-Axiomatic Logic, is designed and tested. The learning
mechanism is composed of three steps, hypothesizing, revising, and recycling,
which enable the model to work under the Assumption of Insufficient Knowledge
and Resources. Synthetic datasets for sequence prediction task are generated to
test the capacity of the model. The results show that the model works well
within different levels of difficulty. In addition, since the model adopts
concept-centered representation, it theoretically does not suffer from
catastrophic forgetting, and the practical results also support this property.
This paper shows the potential of learning sequences in a logical way.
- Abstract(参考訳): シーケンス学習は知性の重要な側面である。
人工知能では、シーケンス予測タスクは通常、シーケンス学習モデルをテストするために使用される。
本稿では,非公理論理によって解釈可能なシーケンス学習モデルの設計とテストを行う。
学習メカニズムは仮説化、修正、リサイクルの3つのステップで構成されており、不十分な知識と資源を前提としてモデルが機能することを可能にする。
シーケンス予測タスクのための合成データセットを生成し、モデルのキャパシティをテストする。
その結果、モデルが異なる難易度でうまく機能することを示しました。
さらに、モデルが概念中心の表現を採用するため、理論的には破滅的な忘れ込みに悩まされず、実用的な結果もこの特性を支持する。
本稿では,論理的な学習列の可能性を示す。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Action Model Learning with Guarantees [5.524804393257921]
本研究では,学習例と整合した仮説の探索としてタスクを解釈するバージョン空間に基づく行動モデル学習の理論を開発する。
我々の理論的発見は、問題のすべての解のコンパクトな表現を維持するオンラインアルゴリズムでインスタンス化される。
論文 参考訳(メタデータ) (2024-04-15T10:01:43Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Computation with Sequences in a Model of the Brain [11.15191997898358]
神経活動から認知がどのように生じるかは神経科学の中心的な問題である。
本研究は, シナプス重量と可塑性により, 時刻を優先的に捉えることができることを示す。
我々は、任意の有限状態機械が、シーケンスの適切なパターンの提示を通して、同様の方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2023-06-06T15:58:09Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Demystifying Code Summarization Models [5.608277537412537]
我々は、極端要約、code2vec、code2seq、Sequence GNNの4つの顕著なコード要約モデルを評価する。
結果は、すべてのモデルが意味的な意味をほとんど含まない構文的および語彙的特性に基づいて予測することを示している。
本稿では,トレーニングデータのレンズを用いて,コード要約モデルの予測を説明する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T03:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。