論文の概要: Distribution Regression for Sequential Data
- arxiv url: http://arxiv.org/abs/2006.05805v5
- Date: Wed, 29 Sep 2021 17:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 04:29:24.640767
- Title: Distribution Regression for Sequential Data
- Title(参考訳): 逐次データに対する分布回帰
- Authors: Maud Lemercier, Cristopher Salvi, Theodoros Damoulas, Edwin V.
Bonilla, Terry Lyons
- Abstract要約: 入力が複雑なデータストリームである分散回帰のための厳密なフレームワークを開発する。
機能ベースとカーネルベースという2つの新しい学習手法を導入する。
- 参考スコア(独自算出の注目度): 20.77698059067596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distribution regression refers to the supervised learning problem where
labels are only available for groups of inputs instead of individual inputs. In
this paper, we develop a rigorous mathematical framework for distribution
regression where inputs are complex data streams. Leveraging properties of the
expected signature and a recent signature kernel trick for sequential data from
stochastic analysis, we introduce two new learning techniques, one
feature-based and the other kernel-based. Each is suited to a different data
regime in terms of the number of data streams and the dimensionality of the
individual streams. We provide theoretical results on the universality of both
approaches and demonstrate empirically their robustness to irregularly sampled
multivariate time-series, achieving state-of-the-art performance on both
synthetic and real-world examples from thermodynamics, mathematical finance and
agricultural science.
- Abstract(参考訳): 分散回帰とは、ラベルが個々の入力の代わりに入力のグループでのみ利用できるという教師付き学習問題を指す。
本稿では,入力が複雑なデータストリームである分布回帰のための厳密な数学的枠組みを開発する。
確率解析から得られた逐次データに対して,期待されるシグネチャの特性と最近のシグネチャカーネルのトリックを活用し,特徴に基づく2つの新しい学習手法を導入する。
それぞれは、データストリームの数と個々のストリームの次元の観点から異なるデータレジームに適している。
両手法の普遍性に関する理論的結果を提供し,不規則にサンプリングされた多変量時系列に対するロバスト性を実証し,熱力学,数理ファイナンス,農業科学から得られた総合的および実世界の例において,最先端のパフォーマンスを実現する。
関連論文リスト
- Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - FAIRM: Learning invariant representations for algorithmic fairness and domain generalization with minimax optimality [15.71499916304475]
本研究では,多様性型条件下でのフェアネスと領域一般化特性が望ましい学習環境に基づくオラクルFAIRMを提案する。
線形モデルでFAIRMを実現するための効率的なアルゴリズムを開発し、最小限の最適化で漸近的性能を示す。
論文 参考訳(メタデータ) (2024-04-02T03:06:25Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Towards Synthetic Multivariate Time Series Generation for Flare
Forecasting [5.098461305284216]
データ駆動・レアイベント予測アルゴリズムのトレーニングにおける制限要因の1つは、関心のあるイベントの不足である。
本研究では,データインフォームド・オーバーサンプリングを行う手段として,条件付き生成逆数ネットワーク(CGAN)の有用性を検討する。
論文 参考訳(メタデータ) (2021-05-16T22:23:23Z) - Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding [24.3769047873156]
本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-28T02:20:39Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - The continuous categorical: a novel simplex-valued exponential family [23.983555024375306]
単純な値を持つデータに対する標準的な選択は、バイアスや数値問題など、いくつかの制限に悩まされていることを示す。
我々は,これらの制約を,単純度値データモデリングのための新しい指数関数列を導入することによって解決する。
ディリクレや他の典型的な選択とは異なり、連続な圏は確率的損失関数をよく表す。
論文 参考訳(メタデータ) (2020-02-20T04:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。