論文の概要: Deep Archimedean Copulas
- arxiv url: http://arxiv.org/abs/2012.03137v1
- Date: Sat, 5 Dec 2020 22:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 13:16:32.253379
- Title: Deep Archimedean Copulas
- Title(参考訳): Deep Archimedean Copulas
- Authors: Chun Kai Ling, Fei Fang, J. Zico Kolter
- Abstract要約: ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
- 参考スコア(独自算出の注目度): 98.96141706464425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A central problem in machine learning and statistics is to model joint
densities of random variables from data. Copulas are joint cumulative
distribution functions with uniform marginal distributions and are used to
capture interdependencies in isolation from marginals. Copulas are widely used
within statistics, but have not gained traction in the context of modern deep
learning. In this paper, we introduce ACNet, a novel differentiable neural
network architecture that enforces structural properties and enables one to
learn an important class of copulas--Archimedean Copulas. Unlike Generative
Adversarial Networks, Variational Autoencoders, or Normalizing Flow methods,
which learn either densities or the generative process directly, ACNet learns a
generator of the copula, which implicitly defines the cumulative distribution
function of a joint distribution. We give a probabilistic interpretation of the
network parameters of ACNet and use this to derive a simple but efficient
sampling algorithm for the learned copula. Our experiments show that ACNet is
able to both approximate common Archimedean Copulas and generate new copulas
which may provide better fits to data.
- Abstract(参考訳): 機械学習と統計学における中心的な問題は、データからランダム変数の結合密度をモデル化することである。
コプラは一様辺縁分布を持つ合同累積分布関数であり、辺縁分布から分離した相互依存性を捉えるために用いられる。
コプラは統計学で広く使われているが、現代のディープラーニングの文脈では注目されていない。
本稿では,構造特性を強制し,コピュラス-アルキメデスコピュラスの重要なクラスを学習可能な,新しい微分可能なニューラルネットワークアーキテクチャであるacnetを提案する。
密度や生成過程を直接学習する生成的適応ネットワークや変分オートエンコーダ、正規化フロー法とは異なり、ACNetはコプラの生成器を学習し、共同分布の累積分布関数を暗黙的に定義する。
我々はacnetのネットワークパラメータを確率論的に解釈し,これを用いて学習したcopulaの簡易かつ効率的なサンプリングアルゴリズムを導出する。
実験の結果, acnet は, 近似的なアルキメデスコピュラと, データに適合する新たなコピュラを生成することができることがわかった。
関連論文リスト
- Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Neural Copula: A unified framework for estimating generic
high-dimensional Copula functions [7.926596248777508]
コピュラは、確率変数の辺分布と結合分布の関係を記述するために広く用いられている。
本稿ではニューラルネットワークに基づく新しい手法(Neural Copula)を提案する。
提案手法の有効性を実世界のデータセットと複素数値シミュレーションの両方で評価した。
論文 参考訳(メタデータ) (2022-05-23T13:01:44Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Learning with latent group sparsity via heat flow dynamics on networks [5.076419064097734]
機械学習問題における説明変数上のグループまたはクラスタ構造は非常に一般的な現象である。
このようなグループ構造下での学習には,グループアイデンティティに関する事前情報を必要としないアプローチに寄与する。
我々は、利用可能なデータに基づいて、そのようなネットワークを構築する手順を実証する。
論文 参考訳(メタデータ) (2022-01-20T17:45:57Z) - Geometry-Aware Hierarchical Bayesian Learning on Manifolds [5.182379239800725]
多様体値の視覚データに基づく学習のための階層型ベイズ学習モデルを提案する。
まず、幾何学的認識とカーネル内畳み込みの性質を持つカーネルを導入する。
次に、ガウス過程回帰を用いて入力を整理し、最終的に特徴集約のための階層的ベイズネットワークを実装する。
論文 参考訳(メタデータ) (2021-10-30T05:47:05Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Hierarchical Gaussian Process Priors for Bayesian Neural Network Weights [16.538973310830414]
望ましい事前分類は、重みをコンパクトに表現し、重み間の相関を捉え、事前知識を含ませることである。
i) 相関重み構造を柔軟にエンコード可能な単位埋め込みに基づくネットワーク重みのプロセスベース階層モデルと,(ii) 関数空間の規則化に便利な入力依存型の重み前のモデルを提案する。
これらのモデルは、分布外データに基づいて望ましいテスト時間不確実性推定を提供し、カーネルを用いたニューラルネットワークの帰納バイアスをモデル化する事例を示し、アクティブラーニングベンチマークで競合予測性能を示す。
論文 参考訳(メタデータ) (2020-02-10T07:19:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。