論文の概要: Next-generation reservoir computing validated by classification task
- arxiv url: http://arxiv.org/abs/2512.12903v1
- Date: Mon, 15 Dec 2025 01:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.491524
- Title: Next-generation reservoir computing validated by classification task
- Title(参考訳): 分類タスクによる次世代貯水池計算の検証
- Authors: Ken-ichi Kitayama,
- Abstract要約: 次世代貯水池計算(NG-RC)について検討した。
NG-RCが従来のRCと同等の分類タスクを実行できることを初めて実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An emerging computing paradigm, so-called next-generation reservoir computing (NG-RC) is investigated. True to its namesake, NG-RC requires no actual reservoirs for input data mixing but rather computing the polynomial terms directly from the time series inputs. However, benchmark tests so far reported have been one-sided, limited to prediction tasks of temporal waveforms such as Lorenz 63 attractor and Mackey-Glass chaotic signal. We will demonstrate for the first time that NG-RC can perform classification task as good as conventional RC. This validates the versatile computational capability of NG-RC in tasks of both prediction and classification.
- Abstract(参考訳): 次世代貯水池コンピューティング(NG-RC)と呼ばれる新しい計算パラダイムについて検討した。
その名の通り、NG-RCは入力データ混合のための実際の貯水池を必要とせず、時系列入力から直接多項式項を計算する。
しかし、これまでに報告されているベンチマークテストは片側で行われており、ロレンツ63アトラクタやマッキーガラスカオス信号のような時間波形の予測タスクに限られている。
NG-RCが従来のRCと同等の分類タスクを実行できることを初めて実証する。
これは、予測と分類の両方のタスクにおいて、NG-RCの汎用的な計算能力を検証する。
関連論文リスト
- Deterministic Reservoir Computing for Chaotic Time Series Prediction [5.261277318790788]
そこで我々は,高次元マッピングであるTCRC-LMとTCRC-CMに代えて決定論的手法を提案する。
時系列予測のタスクにおける予測能力をさらに強化するために,ロバチョフスキー関数を非線形活性化関数として新規に活用することを提案する。
論文 参考訳(メタデータ) (2025-01-26T17:46:40Z) - Chain-of-Retrieval Augmented Generation [91.02950964802454]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Infinite-dimensional next-generation reservoir computing [5.03863830033243]
次回の貯水池計算(NG-RC)は、複雑なシステムの時間内予測の優れた性能に多くの注目を集めている。
本稿では, NG-RCは, 空間共有機能が非常に大きい場合でも, 訓練が実現可能な隆起として普遍性を持つことを示す。
論文 参考訳(メタデータ) (2024-12-13T02:39:04Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。