論文の概要: Vine Copulas as Differentiable Computational Graphs
- arxiv url: http://arxiv.org/abs/2506.13318v1
- Date: Mon, 16 Jun 2025 09:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.08733
- Title: Vine Copulas as Differentiable Computational Graphs
- Title(参考訳): 微分計算グラフとしてのVine Copulas
- Authors: Tuoyuan Cheng, Thibault Vatter, Thomas Nagler, Kan Chen,
- Abstract要約: 本稿では,マルチレベルなVine構造と関連する計算を抽象化するDAGであるVine計算グラフを紹介する。
我々は、条件付きサンプリング、効率的なサンプリング順序スケジューリング、およびカスタマイズされた条件付き変数のためのVine構造の構築のための新しいアルゴリズムを考案する。
PyTorch上に構築されたGPUアクセラレーションされたPythonライブラリであるTorchvinecopulibにこれらのアイデアを実装し、適合性、サンプリング、密度評価のためのスケーラビリティを改善した。
- 参考スコア(独自算出の注目度): 7.87903514809639
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vine copulas are sophisticated models for multivariate distributions and are increasingly used in machine learning. To facilitate their integration into modern ML pipelines, we introduce the vine computational graph, a DAG that abstracts the multilevel vine structure and associated computations. On this foundation, we devise new algorithms for conditional sampling, efficient sampling-order scheduling, and constructing vine structures for customized conditioning variables. We implement these ideas in torchvinecopulib, a GPU-accelerated Python library built upon PyTorch, delivering improved scalability for fitting, sampling, and density evaluation. Our experiments illustrate how gradient flowing through the vine can improve Vine Copula Autoencoders and that incorporating vines for uncertainty quantification in deep learning can outperform MC-dropout, deep ensembles, and Bayesian Neural Networks in sharpness, calibration, and runtime. By recasting vine copula models as computational graphs, our work connects classical dependence modeling with modern deep-learning toolchains and facilitates the integration of state-of-the-art copula methods in modern machine learning pipelines.
- Abstract(参考訳): Vine copulasは多変量分布の洗練されたモデルであり、機械学習での利用が増えている。
現代のMLパイプラインへの統合を容易にするため,マルチレベルなVine構造と関連する計算を抽象化するDAGであるVine計算グラフを導入する。
そこで我々は, 条件付きサンプリング, 効率的なサンプリング順序スケジューリング, カスタマイズされた条件付き変数のためのブドウ構造構築のための新しいアルゴリズムを考案した。
PyTorch上に構築されたGPUアクセラレーションされたPythonライブラリであるTorchvinecopulibにこれらのアイデアを実装し、適合性、サンプリング、密度評価のためのスケーラビリティを改善した。
我々の実験は、ブドウを流れる勾配がVine Copula Autoencodersをどう改善するかを示し、深層学習における不確実性定量化にVineを組み込むことで、MC-dropout、ディープアンサンブル、ベイズニューラルネットワークをシャープネス、キャリブレーション、ランタイムで上回ることを示した。
我々の研究は、Vine copulaモデルを計算グラフとして再キャストすることで、古典的依存モデルと現代のディープラーニングツールチェーンを結びつけるとともに、最新の機械学習パイプラインにおける最先端のコプラメソッドの統合を容易にする。
関連論文リスト
- Tensor Decompositions Meet Control Theory: Learning General Mixtures of
Linear Dynamical Systems [19.47235707806519]
テンソル分解に基づく線形力学系の混合を学習するための新しいアプローチを提案する。
このアルゴリズムは, 成分の分離条件が強くないまま成功し, 軌道のベイズ最適クラスタリングと競合することができる。
論文 参考訳(メタデータ) (2023-07-13T03:00:01Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - NIO: Lightweight neural operator-based architecture for video frame
interpolation [15.875579519177487]
NIOは、ビデオフレーム・バイ・フレーム学習を実行するための軽量で効率的なニューラル演算子ベースのアーキテクチャである。
我々は、NIOが視覚的に滑らかで正確な結果を生成でき、最先端のアプローチよりもエポックに収束することが示している。
論文 参考訳(メタデータ) (2022-11-19T20:30:47Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - A Data-Centric Optimization Framework for Machine Learning [9.57755812904772]
私たちは、任意のディープニューラルネットワークをトレーニングするためのフレキシブルでユーザ指向のパイプラインを定義することで、ディープラーニング研究者に力を与えます。
パイプラインは、PyTorchまたはONNXの標準ネットワークから始まり、プログレッシブローディングを通じて変換される。
我々は10の異なるネットワーク上での競争性能やスピードアップを実演し、インタラクティブな最適化によってEfficientNetの新しい機会を発見する。
論文 参考訳(メタデータ) (2021-10-20T22:07:40Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Improving accuracy and speeding up Document Image Classification through
parallel systems [4.102028235659611]
RVL-CDIPデータセットで、より軽量なモデルで以前の結果を改善することができることを示す。
画像入力のみを増強できるアンサンブルパイプラインを提案する。
最後に、PyTorchとDeep Learningフレームワーク間のトレーニングパフォーマンスの違いを明らかにします。
論文 参考訳(メタデータ) (2020-06-16T13:36:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。