論文の概要: Numerical Sequence Prediction using Bayesian Concept Learning
- arxiv url: http://arxiv.org/abs/2001.04072v1
- Date: Mon, 13 Jan 2020 06:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:40:16.206856
- Title: Numerical Sequence Prediction using Bayesian Concept Learning
- Title(参考訳): ベイズ概念学習を用いた数値シーケンス予測
- Authors: Mohith Damarapati, Inavamsi B. Enaganti and Alfred Ajay Aureate
Rajakumar
- Abstract要約: 基礎となる概念を学習した人間は、それらの概念を他の数に一般化することができる。
LSTMのような最先端のRNNアーキテクチャは、シーケンシャルデータの連続した要素を予測するのによく機能するが、大量のトレーニング例を必要とする。
本研究では、従来のLSTMよりも優れた、与えられたシーケンス内の次の数を予測するために、これらの人間のような学習能力を捉えるベイズモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When people learn mathematical patterns or sequences, they are able to
identify the concepts (or rules) underlying those patterns. Having learned the
underlying concepts, humans are also able to generalize those concepts to other
numbers, so far as to even identify previously unseen combinations of those
rules. Current state-of-the art RNN architectures like LSTMs perform well in
predicting successive elements of sequential data, but require vast amounts of
training examples. Even with extensive data, these models struggle to
generalize concepts. From our behavioral study, we also found that humans are
able to disregard noise and identify the underlying rules generating the
corrupted sequences. We therefore propose a Bayesian model that captures these
human-like learning capabilities to predict next number in a given sequence,
better than traditional LSTMs.
- Abstract(参考訳): 数学的パターンやシーケンスを学ぶと、それらのパターンの基礎となる概念(あるいはルール)を識別できます。
基礎となる概念を学習することで、人類はこれらの概念を他の数に一般化することができる。
LSTMのような最先端のRNNアーキテクチャは、シーケンシャルデータの連続した要素を予測するのによく機能するが、大量のトレーニング例を必要とする。
広範なデータであっても、これらのモデルは概念の一般化に苦慮している。
我々の行動研究から、人間はノイズを無視し、腐敗したシーケンスを生成する基礎となるルールを特定できることがわかった。
そこで本研究では,従来のlstmよりも,与えられた列の次数を予測できるベイズモデルを提案する。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - A Feature-based Generalizable Prediction Model for Both Perceptual and
Abstract Reasoning [1.0650780147044159]
人間の知性の目印は、限られた経験から抽象的なルールを推論する能力である。
ディープラーニングの最近の進歩は、複数の人工知能ニューラルネットワークモデルが、人間のパフォーマンスにマッチしたり、超えたりしている。
本稿では,特徴検出,アフィン変換推定,探索を用いたルール検出と応用のためのアルゴリズム的アプローチを提案する。
論文 参考訳(メタデータ) (2024-03-08T19:26:30Z) - A Brain-Inspired Sequence Learning Model based on a Logic [6.653734987585243]
本稿では,非公理論理で解釈可能なシーケンス学習モデルの設計と試験を行う。
その結果、モデルは異なるレベルの難易度でうまく機能することがわかった。
論文 参考訳(メタデータ) (2023-08-24T01:01:41Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Nested Learning For Multi-Granular Tasks [24.600419295290504]
元のトレーニングディストリビューションからないサンプルに、粗悪に一般化する。
標準ディープニューラルネットワーク(DNN)は通常、特定のタスクに対してエンドツーエンドでトレーニングされる。
ネスト学習の概念として,入力の階層的表現を得る方法を紹介する。
ネスト学習は、標準のエンドツーエンド方式でトレーニングされた同じネットワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-13T14:27:14Z) - Background Knowledge Injection for Interpretable Sequence Classification [13.074542699823933]
本稿では,予測能力と解釈可能性のバランスをとる新しいシーケンス学習アルゴリズムを提案する。
我々は、単語やグラフの埋め込みによって注入された背景知識によって生成されるシンボル群を用いて、古典的なサブシーケンス特徴空間を拡張した。
また,シンボル埋め込みに基づく記号特徴集合の解釈可能性を評価するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2020-06-25T08:36:05Z) - Neural Execution Engines: Learning to Execute Subroutines [29.036699193820215]
本稿では, ソート, 最短経路, 最小スパンニング木などの共通アルゴリズムを構成する数値サブルーチンのレベルでの一般化問題について検討する。
データを一般化するために、バイナリ表現で数値を符号化すると、加算や乗算のような下流のタスクで訓練されたリッチな構造で埋め込みされることを示す。
論文 参考訳(メタデータ) (2020-06-15T01:51:37Z) - Learning Compositional Rules via Neural Program Synthesis [67.62112086708859]
少数の例からルールシステム全体を学習するニューロシンボリックモデルを提案する。
入力からの出力を直接予測する代わりに、前述した例の集合を規定する規則の明示的な体系を誘導するようにモデルを訓練する。
論文 参考訳(メタデータ) (2020-03-12T01:06:48Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。