論文の概要: Feature-aligned N-BEATS with Sinkhorn divergence
- arxiv url: http://arxiv.org/abs/2305.15196v1
- Date: Wed, 24 May 2023 14:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:21:06.969540
- Title: Feature-aligned N-BEATS with Sinkhorn divergence
- Title(参考訳): Sinkhorn divergence を用いた特徴整列N-BEATS
- Authors: Myeongho Jeon, Myungjoo Kang, Joonhun Lee, Kyunghyun Park
- Abstract要約: 提案手法は,N-BEATSの2倍の残留積み重ねアーキテクチャを表現学習フレームワークに拡張したものである。
本研究では,提案手法の総合的な実験的評価を行い,モデルの予測と一般化能力を示す。
- 参考スコア(独自算出の注目度): 1.5257014979868386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we propose Feature-aligned N-BEATS as a domain generalization
model for univariate time series forecasting problems. The proposed model is an
extension of the doubly residual stacking architecture of N-BEATS (Oreshkin et
al. [34]) into a representation learning framework. The model is a new
structure that involves marginal feature probability measures (i.e.,
pushforward measures of multiple source domains) induced by the intricate
composition of residual operators of N-BEATS in each stack and aligns them
stack-wise via an entropic regularized Wasserstein distance referred to as the
Sinkhorn divergence (Genevay et al. [14]). The loss function consists of a
typical forecasting loss for multiple source domains and an alignment loss
calculated with the Sinkhorn divergence, which allows the model to learn
invariant features stack-wise across multiple source data sequences while
retaining N-BEATS's interpretable design. We conduct a comprehensive
experimental evaluation of the proposed approach and the results demonstrate
the model's forecasting and generalization capabilities in comparison with
methods based on the original N-BEATS.
- Abstract(参考訳): 本研究では,一変量時系列予測問題に対する領域一般化モデルとして特徴整列N-BEATSを提案する。
提案手法は,N-BEATS (Oreshkin et al. [34]) の2重残スタックアーキテクチャを表現学習フレームワークに拡張したものである。
このモデルは、各スタックにおける N-BEATS の残留作用素の複雑な組成によって引き起こされる限界特徴確率測度(すなわち、複数のソース領域のプッシュフォワード測度)を伴い、シンクホーン発散(Genevay et al. [14])と呼ばれるエントロピック正規化ワッサーシュタイン距離を介してそれらをスタックワイズする新しい構造である。
損失関数は、複数のソース領域に対する典型的な予測損失と、シンクホーン発散で計算されたアライメント損失から成り、N-BEATSの解釈可能な設計を維持しながら、複数のソースデータシーケンスにわたって不変の特徴をスタックワイズに学習することができる。
提案手法の総合的な実験的評価を行い,元のN-BEATSに基づく手法と比較して,モデルの予測と一般化能力を示す。
関連論文リスト
- A Lifted Bregman Formulation for the Inversion of Deep Neural Networks [28.03724379169264]
本稿では,ディープニューラルネットワークの正規化インバージョンのための新しいフレームワークを提案する。
このフレームワークは、補助変数を導入することにより、パラメータ空間を高次元空間に引き上げる。
理論的結果を提示し,その実用的応用を数値的な例で支援する。
論文 参考訳(メタデータ) (2023-03-01T20:30:22Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - A Posterior Sampling Framework for Interactive Decision Making [101.5329678997916]
対話型意思決定の一般的な枠組みの下で, サンプル高能率強化学習(RL)について検討した。
本稿では,探索とエクスプロイトの基本的なトレードオフを特徴付ける,新しい複雑性尺度である一般化エルダー係数(GEC)を提案する。
低 GEC の RL 問題は非常にリッチなクラスであり、これは低ベルマン楕円体次元問題、双線型クラス、低証人ランク問題、PO-双線型クラス、一般化正規PSR を仮定する。
論文 参考訳(メタデータ) (2022-11-03T16:42:40Z) - Posterior-Aided Regularization for Likelihood-Free Inference [23.708122045184698]
後補助正規化(PAR)は,モデル構造に関係なく,密度推定器の学習に適用可能である。
単一のニューラルネットワークを用いて逆KL項と相互情報項の両方を推定するPARの統一推定方法を提供する。
論文 参考訳(メタデータ) (2021-02-15T16:59:30Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - The Heavy-Tail Phenomenon in SGD [7.366405857677226]
最小損失のHessianの構造に依存すると、SGDの反復はエンフェビーテールの定常分布に収束する。
深層学習におけるSGDの行動に関する知見に分析結果を変換する。
論文 参考訳(メタデータ) (2020-06-08T16:43:56Z) - Generalisation error in learning with random features and the hidden
manifold model [23.71637173968353]
合成データセットの一般線形回帰と分類について検討した。
我々は,高次元構造を考察し,統計物理学からのレプリカ法を用いる。
閾値をピークとしたロジスティック回帰のためのいわゆる二重降下挙動を得る方法を示す。
隠れ多様体モデルにより生成されたデータにおいて相関関係が果たす役割について論じる。
論文 参考訳(メタデータ) (2020-02-21T14:49:41Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z) - Bayesian stochastic blockmodeling [0.0]
この章では、ネットワークデータから大規模なモジュラ構造を抽出するためのベイズ推論の使用について、自己完結した紹介を行っている。
我々は、過度な適合を防止し、モデル選択を可能にする方法でそれらの推論を可能にする非パラメトリックな定式化に焦点を当てる。
本稿では,ネットワークにおけるモジュール構造の検出可能性の基本的限界に光を当て,ブロックモデルを用いてリンクの欠落やスプリアスを予測できることを示す。
論文 参考訳(メタデータ) (2017-05-29T14:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。