論文の概要: Topological regularization with information filtering networks
- arxiv url: http://arxiv.org/abs/2005.04692v2
- Date: Sat, 30 Oct 2021 16:51:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:28:01.088293
- Title: Topological regularization with information filtering networks
- Title(参考訳): 情報フィルタリングネットワークを用いた位相正規化
- Authors: Tomaso Aste
- Abstract要約: 学生tを用いたスパースモデリングの応用について詳述する。
株価の対価の対価と人工的に生成されたデータの実際のデータによる例は、この方法論の適用性、性能、ポテンシャルを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A methodology to perform topological regularization via information filtering
network is introduced. This methodology can be directly applied to covariance
selection problem providing an instrument for sparse probabilistic modeling
with both linear and non-linear multivariate probability distributions such as
the elliptical and generalized hyperbolic families. It can also be directly
implemented for $L_0$-norm regularized multicollinear regression. In this
paper, I describe in detail an application to sparse modeling with multivariate
Student-t. A specific $L_0$-norm regularized expectation-maximization
likelihood maximization procedure is proposed for this sparse Student-t case.
Examples with real data from stock prices log-returns and from artificially
generated data demonstrate the applicability, performances, and potentials of
this methodology.
- Abstract(参考訳): 情報フィルタリングネットワークによるトポロジカル正規化を行う手法を提案する。
この手法は、楕円型および一般化双曲型族のような線形および非線形な多変量確率分布を持つスパース確率モデリングの手段を提供する共分散選択問題に直接適用することができる。
また、$L_0$-norm正規化マルチコラーレグレッションに対して直接実装することもできる。
本稿では,多変量student-tを用いたスパースモデリングへの応用について詳述する。
このスパースな学生tの場合、特定の$l_0$-norm正規化期待最大化手順が提案されている。
株価の対価と人工的に生成されたデータからの実際のデータを用いた例は、この方法論の適用性、性能、ポテンシャルを示している。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Normalizing flow sampling with Langevin dynamics in the latent space [12.91637880428221]
正規化フロー(NF)は、連続生成器を使用して、単純な潜伏分布(例えばガウス分布)をトレーニングデータセットに関連する経験的対象分布にマッピングする。
標準NFは可微分写像を実装しているため、複雑な分布を対象とする場合、病理学的挙動に悩まされることがある。
本稿では,マルコフ連鎖モンテカルロアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-20T09:31:35Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Random Manifold Sampling and Joint Sparse Regularization for Multi-label
Feature Selection [0.0]
本稿では,$ell_2,1$および$ell_F$正規化の連立制約付き最適化問題を解くことで,最も関連性の高いいくつかの特徴を得ることができる。
実世界のデータセットの比較実験により,提案手法が他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-04-13T15:06:12Z) - Adaptive Cholesky Gaussian Processes [7.684183064816171]
本稿では,データの部分集合のみを考慮し,正確なガウス過程モデルを大規模データセットに適合させる手法を提案する。
我々のアプローチは、計算オーバーヘッドが少ない正確な推論中に、サブセットのサイズがフライで選択されるという点で新しくなっています。
論文 参考訳(メタデータ) (2022-02-22T09:43:46Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Lipschitz standardization for multivariate learning [8.773139946846046]
変数間の局所的なリプシッツ滑らかさのバランスをとる新しいデータ前処理であるリプシッツ標準化を提案する。
実世界のデータセットに対する我々の実験は、リプシッツの標準化が既存のデータ前処理技術で学んだものよりも、より正確な多変量モデルをもたらすことを示している。
論文 参考訳(メタデータ) (2020-02-26T09:20:10Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。