論文の概要: An Alternate View on Optimal Filtering in an RKHS
- arxiv url: http://arxiv.org/abs/2312.12318v1
- Date: Tue, 19 Dec 2023 16:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 14:50:47.668159
- Title: An Alternate View on Optimal Filtering in an RKHS
- Title(参考訳): RKHSにおける最適フィルタリングの代替的視点
- Authors: Benjamin Colburn, Jose C. Principe, Luis G. Sanchez Giraldo
- Abstract要約: Adaptive Filtering (KAF) は、再生カーネル空間内の関数を探索する数学的に原理化された手法である。
彼らはトレーニングサンプルの数とモデルサイズの間の線形関係に悩まされており、今日のデータ飽和世界で一般的な非常に大きなデータセットでの使用を妨げている。
モデルサイズの線形成長を必ずしも持たないRKHSにおける解への経路を提供することができる最適フィルタリングの新たな視点について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kernel Adaptive Filtering (KAF) are mathematically principled methods which
search for a function in a Reproducing Kernel Hilbert Space. While they work
well for tasks such as time series prediction and system identification they
are plagued by a linear relationship between number of training samples and
model size, hampering their use on the very large data sets common in today's
data saturated world. Previous methods try to solve this issue by
sparsification. We describe a novel view of optimal filtering which may provide
a route towards solutions in a RKHS which do not necessarily have this linear
growth in model size. We do this by defining a RKHS in which the time structure
of a stochastic process is still present. Using correntropy [11], an extension
of the idea of a covariance function, we create a time based functional which
describes some potentially nonlinear desired mapping function. This form of a
solution may provide a fruitful line of research for creating more efficient
representations of functionals in a RKHS, while theoretically providing
computational complexity in the test set similar to Wiener solution.
- Abstract(参考訳): カーネル適応フィルタリング(英: Kernel Adaptive Filtering, KAF)は、再生ケルネルヒルベルト空間内の関数を探索する数学的手法である。
時系列予測やシステム識別といったタスクではうまく機能するが、トレーニングサンプルの数とモデルサイズの間の線形関係に悩まされ、今日のデータ飽和世界で一般的な非常に大きなデータセットでの使用を妨げている。
以前の方法は、スパーシフィケーションによってこの問題を解決しようとする。
モデルサイズの線形成長を必ずしも持たないRKHSにおける解への経路を提供することができる最適フィルタリングの新たな視点について述べる。
我々は、確率過程の時間構造がまだ存在するRKHSを定義することでこれを行う。
共分散関数のアイデアの拡張であるcorrentropy [11]を用いて、いくつかの非線形所望の写像関数を記述する時間に基づく関数を作成する。
この解の形式は、より効率的な関数表現を RKHS で作成するための実りある研究ラインを提供する一方で、理論的にはウィナー解に似たテストセットで計算複雑性を提供する。
関連論文リスト
- Highly Adaptive Ridge [84.38107748875144]
直交可積分な部分微分を持つ右連続函数のクラスにおいて,$n-2/3$自由次元L2収束率を達成する回帰法を提案する。
Harは、飽和ゼロオーダーテンソル積スプライン基底展開に基づいて、特定のデータ適応型カーネルで正確にカーネルリッジレグレッションを行う。
我々は、特に小さなデータセットに対する最先端アルゴリズムよりも経験的性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-10-03T17:06:06Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - online and lightweight kernel-based approximated policy iteration for
dynamic p-norm linear adaptive filtering [8.319127681936815]
本稿では, 線形適応フィルタリングにおいて, 最適p-ノルムを動的(オンライン)に選択する問題の解を提案する。
提案するフレームワークはカーネルベース強化学習(KBRL)に基づいている。
論文 参考訳(メタデータ) (2022-10-21T06:29:01Z) - Closed-Form Diffeomorphic Transformations for Time Series Alignment [0.0]
本稿では, ODE 解に対する閉形式表現とその勾配を, 連続的なピースワイド・ファイン速度関数の下で表現する。
その結果,効率と精度の両面で有意な改善が認められた。
論文 参考訳(メタデータ) (2022-06-16T12:02:12Z) - Experimental Design for Linear Functionals in Reproducing Kernel Hilbert
Spaces [102.08678737900541]
線形汎関数に対するバイアス認識設計のためのアルゴリズムを提供する。
準ガウス雑音下での固定および適応設計に対する漸近的でない信頼集合を導出する。
論文 参考訳(メタデータ) (2022-05-26T20:56:25Z) - Deep Learning for the Benes Filter [91.3755431537592]
本研究では,メッシュのないニューラルネットワークによるベンズモデルの解の密度の表現に基づく新しい数値計算法を提案する。
ニューラルネットワークの領域選択におけるフィルタリングモデル方程式における非線形性の役割について論じる。
論文 参考訳(メタデータ) (2022-03-09T14:08:38Z) - Unsupervised Reservoir Computing for Solving Ordinary Differential
Equations [1.6371837018687636]
通常の微分方程式(ODE)を満たす近似解を発見することができるエコー状態のリカレントニューラルネットワーク
ベイジアン最適化を用いて高次元ハイパーパラメータ空間における最適集合を効率よく発見し、1つの集合がロバストであり、異なる初期条件と時間範囲のODEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-08-25T18:16:42Z) - The SKIM-FA Kernel: High-Dimensional Variable Selection and Nonlinear
Interaction Discovery in Linear Time [26.11563787525079]
変数選択と推定の両方において、カーネルのトリックが適切なベイズモデルによる計算をO(#共変量)時間に還元する方法を示す。
提案手法は,大規模で高次元なデータセットの既存の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-23T13:53:36Z) - Sample-Efficient Reinforcement Learning Is Feasible for Linearly
Realizable MDPs with Limited Revisiting [60.98700344526674]
線形関数表現のような低複雑度モデルがサンプル効率のよい強化学習を可能にする上で重要な役割を果たしている。
本稿では,オンライン/探索的な方法でサンプルを描画するが,制御不能な方法で以前の状態をバックトラックし,再訪することができる新しいサンプリングプロトコルについて検討する。
この設定に合わせたアルゴリズムを開発し、特徴次元、地平線、逆の準最適ギャップと実際にスケールするサンプル複雑性を実現するが、状態/作用空間のサイズではない。
論文 参考訳(メタデータ) (2021-05-17T17:22:07Z) - Semi-analytic approximate stability selection for correlated data in
generalized linear models [3.42658286826597]
そこで本研究では,繰り返しのフィッティングを行なわずに安定選択を行うことのできる,新しい近似推論アルゴリズムを提案する。
このアルゴリズムは,情報理論の統計力学とベクトル近似メッセージパッシングの複製法に基づく。
数値実験により, このアルゴリズムは, 合成データと実世界のデータの両方に対して, 高速収束と高い近似精度を示すことを示した。
論文 参考訳(メタデータ) (2020-03-19T10:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。