論文の概要: Proofs and additional experiments on Second order techniques for
learning time-series with structural breaks
- arxiv url: http://arxiv.org/abs/2012.08037v2
- Date: Tue, 16 Feb 2021 10:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:35:11.481400
- Title: Proofs and additional experiments on Second order techniques for
learning time-series with structural breaks
- Title(参考訳): 構造的破壊を伴う時系列学習のための2次手法の証明と追加実験
- Authors: Takayuki Osogami
- Abstract要約: 構造破壊を伴う時系列学習のための第2次手法で使用される正規化損失関数の特性に関する補題の完全な証明を提供します。
本手法の有効性を実証する実験結果を示す。
- 参考スコア(独自算出の注目度): 14.467069129955098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide complete proofs of the lemmas about the properties of the
regularized loss function that is used in the second order techniques for
learning time-series with structural breaks in Osogami (2021). In addition, we
show experimental results that support the validity of the techniques.
- Abstract(参考訳): 我々は,osogami (2021) における構造的ブレークを伴う時系列学習の2次手法で用いられる正規化損失関数の性質に関する補題の完全な証明を提供する。
さらに,本手法の有効性を支持する実験結果を示す。
関連論文リスト
- The Developmental Landscape of In-Context Learning [2.0451307225357427]
本稿では,言語モデルや線形回帰タスクで学習した場合に,コンテクスト内学習が個別発達段階のトランスフォーマーに現れることを示す。
パラメータ空間と関数空間の両方において、人口損失の幾何学を探索することにより、これらの段階を分離するマイルストーンを検出する2つの方法を提案する。
本研究は, これらの手法を用いて, 行動指標と構造指標を用いて, それらの妥当性を検証した。
論文 参考訳(メタデータ) (2024-02-04T06:23:05Z) - Federated Learning in Temporal Heterogeneity [0.6091702876917281]
固定長列をトレーニングしたtextttFedAvg で得られた大域的モデルは、可変長列よりも高速に収束することを示した。
論文 参考訳(メタデータ) (2023-09-17T21:20:35Z) - Driven-dissipative topological phases in parametric resonator arrays [62.997667081978825]
トポロジカルアンプリフィケーションの2つのフェーズは, 方向輸送と指数的ゲインの双方で, サイト数とともに増加し, そのうちの1つはスクイーズを特徴とする。
異なる位相の障害に対するレジリエンスと、その安定性、利得、雑音-信号比を特徴付ける。
実験的な実装を最先端技術で論じる。
論文 参考訳(メタデータ) (2022-07-27T18:00:05Z) - Semi-Supervised Learning with Mutual Distillation for Monocular Depth
Estimation [27.782150368174413]
それぞれの損失に対して異なる2つのネットワーク分岐を構築し, 相互蒸留損失関数を用いて相互蒸留を行う。
我々は,最新の手法によるフレームワークの有効性を実証する実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-03-18T04:28:58Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - A Constraint-Based Algorithm for the Structural Learning of
Continuous-Time Bayesian Networks [70.88503833248159]
連続時間ベイズネットワークの構造を学習するための制約に基づく最初のアルゴリズムを提案する。
我々は,条件付き独立性を確立するために提案した,異なる統計的テストと基礎となる仮説について論じる。
論文 参考訳(メタデータ) (2020-07-07T07:34:09Z) - Provable Sample Complexity Guarantees for Learning of Continuous-Action
Graphical Games with Nonparametric Utilities [31.061339148448006]
非パラメトリックなユーティリティ関数を持つ連続アクションゲームの正確な構造を学習する問題について検討する。
我々の手法は、ごくわずかな平衡とノイズの多いユーティリティにアクセスすることで機能する。
論文 参考訳(メタデータ) (2020-04-01T17:32:27Z) - Total Deep Variation for Linear Inverse Problems [71.90933869570914]
本稿では,近年のアーキテクチャ設計パターンを深層学習から活用する,学習可能な汎用正規化手法を提案する。
本稿では,古典的画像復元と医用画像再構成問題に対する最先端の性能について述べる。
論文 参考訳(メタデータ) (2020-01-14T19:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。