論文の概要: 2-Cats: 2D Copula Approximating Transforms
- arxiv url: http://arxiv.org/abs/2309.16391v3
- Date: Wed, 1 May 2024 22:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-03 22:20:15.553556
- Title: 2-Cats: 2D Copula Approximating Transforms
- Title(参考訳): 2-Cats:2次元コプラ近似変換
- Authors: Flavio Figueiredo, José Geraldo Fernandes, Jackson Silva, Renato M. Assunção,
- Abstract要約: Copulaは、複数のデータ次元にわたる依存関係をキャプチャするための強力な統計ツールである。
ニューラルネットワーク(NN)モデルである2-Catsを提案する。
提案手法は,各種データセットにおける最先端技術よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.3884184860468136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Copulas are powerful statistical tools for capturing dependencies across multiple data dimensions. Applying Copulas involves estimating independent marginals, a straightforward task, followed by the much more challenging task of determining a single copulating function, $C$, that links these marginals. For bivariate data, a copula takes the form of a two-increasing function $C: (u,v)\in \mathbb{I}^2 \rightarrow \mathbb{I}$, where $\mathbb{I} = [0, 1]$. In this paper, we propose 2-Cats, a Neural Network (NN) model that learns two-dimensional Copulas while preserving their key properties, without relying on specific Copula families (e.g., Archimedean). Furthermore, we introduce a training strategy inspired by the literature on Physics-Informed Neural Networks and Sobolev Training. Our proposed method exhibits superior performance compared to the state-of-the-art across various datasets while maintaining the fundamental mathematical properties of a Copula. note: Dear readers, a reviewer correctly captured a mistake in our proof of P2. Given that arXiv does not allow removals, we are keeping this version with this note on Arxiv with this note while we correct this issue.
- Abstract(参考訳): Copulaは、複数のデータ次元にわたる依存関係をキャプチャするための強力な統計ツールである。
Copulasを適用するには、単純なタスクである独立した辺縁関係を推定し、それに続いて、これらの辺縁関係をリンクする単一の対応関数である$C$を決定するという、はるかに難しいタスクが続く。
二変数データに対して、コプラは 2 つの増分関数 $C: (u,v)\in \mathbb{I}^2 \rightarrow \mathbb{I}$, ここで $\mathbb{I} = [0, 1]$ となる。
本稿では,ニューラルネットワークモデルである2-Catsを提案する。2-Catsは2次元コピュラを学習し,その鍵となる特性を保ちながら,特定のコピュラ族(例えばアルキメデス)に依存しない。
さらに,物理インフォームドニューラルネットワークとソボレフトレーニングに関する文献から着想を得たトレーニング戦略を導入する。
提案手法は,コピュラの基本的な数学的特性を維持しつつ,様々なデータセットにおける最先端技術よりも優れた性能を示す。
注: 読者のみなさん、レビュアーは、私たちのP2の証明で間違いを正しく捉えました。
arXivが削除を許可していないことを考慮すれば、この問題を修正しながら、このバージョンをArxivのこのメモで保持しています。
関連論文リスト
- In-Context Learning of Physical Properties: Few-Shot Adaptation to Out-of-Distribution Molecular Graphs [1.8635507597668244]
コンテキスト内学習は推論中のみに非自明な機械学習タスクを実行することができる。
この研究で、我々は、イン・コンテクスト・ラーニングを利用して、配布外物質特性を予測できるだろうか?
我々は、GPT-2が幾何認識グラフニューラルネットワークの出力に作用し、コンテキスト内情報に適応する複合モデルを用いる。
論文 参考訳(メタデータ) (2024-06-03T21:59:21Z) - Distribution learning via neural differential equations: a nonparametric
statistical perspective [1.4436965372953483]
この研究は、確率変換によって訓練されたODEモデルによる分布学習のための最初の一般統計収束解析を確立する。
後者はクラス $mathcal F$ の$C1$-metric entropy で定量化できることを示す。
次に、この一般フレームワークを$Ck$-smoothターゲット密度の設定に適用し、関連する2つの速度場クラスに対する最小最適収束率を$mathcal F$:$Ck$関数とニューラルネットワークに設定する。
論文 参考訳(メタデータ) (2023-09-03T00:21:37Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - ProjB: An Improved Bilinear Biased ProjE model for Knowledge Graph
Completion [1.5576879053213302]
この研究は、計算の複雑さが低く、モデル改善の可能性が高いため、ProjE KGEを改善する。
FB15KやWN18のようなベンチマーク知識グラフ(KG)の実験結果から、提案手法はエンティティ予測タスクにおける最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-15T18:18:05Z) - TransHER: Translating Knowledge Graph Embedding with Hyper-Ellipsoidal
Restriction [14.636054717485207]
本稿では知識グラフ埋め込みのための新しいスコア関数TransHERを提案する。
我々のモデルでは、まずエンティティを2つの別々の超楕円体にマッピングし、その1つについて関係特異的な翻訳を行う。
実験結果から,TransHERは最先端のパフォーマンスを実現し,異なる領域やスケールのデータセットに一般化可能であることが示された。
論文 参考訳(メタデータ) (2022-04-27T22:49:27Z) - Besov Function Approximation and Binary Classification on
Low-Dimensional Manifolds Using Convolutional Residual Networks [42.43493635899849]
畳み込み残余ネットワーク(ConvResNet)の理論的保証を関数近似および二項分類の統計的推定の観点から確立する。
その結果,ConvResNetsはデータセットの低次元構造に適応していることがわかった。
論文 参考訳(メタデータ) (2021-09-07T02:58:11Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - RatE: Relation-Adaptive Translating Embedding for Knowledge Graph
Completion [51.64061146389754]
複素空間における新たな重み付き積の上に構築された関係適応変換関数を提案する。
次に、関係適応型翻訳埋め込み(RatE)アプローチを示し、各グラフを3倍にスコアする。
論文 参考訳(メタデータ) (2020-10-10T01:30:30Z) - Learning Bijective Feature Maps for Linear ICA [73.85904548374575]
画像データに適した既存の確率的深層生成モデル (DGM) は, 非線形ICAタスクでは不十分であることを示す。
そこで本研究では,2次元特徴写像と線形ICAモデルを組み合わせることで,高次元データに対する解釈可能な潜在構造を学習するDGMを提案する。
画像上のフローベースモデルや線形ICA、変分オートエンコーダよりも、高速に収束し、訓練が容易なモデルを作成し、教師なしの潜在因子発見を実現する。
論文 参考訳(メタデータ) (2020-02-18T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。