論文の概要: Differentiable and Transportable Structure Learning
- arxiv url: http://arxiv.org/abs/2206.06354v1
- Date: Mon, 13 Jun 2022 17:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 14:53:02.870485
- Title: Differentiable and Transportable Structure Learning
- Title(参考訳): 微分可能かつ伝達可能な構造学習
- Authors: Jeroen Berrevoets, Nabeel Seedat, Fergus Imrie, Mihaela van der Schaar
- Abstract要約: 本稿では,新しい構造と損失関数を用いて,検出された構造物の輸送性を回復するD構造について紹介する。
エッジ精度と構造ハミング距離に関して,D構造を実証的に検証した。
- 参考スコア(独自算出の注目度): 73.84540901950616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are interested in unsupervised structure learning with a particular focus
on directed acyclic graphical (DAG) models. Compute required to infer these
structures is typically super-exponential in the amount of variables, as
inference requires a sweep of a combinatorially large space of potential
structures. That is, until recent advances allowed to search this space using a
differentiable metric, drastically reducing search time. While this technique
-- named NOTEARS -- is widely considered a seminal work in DAG-discovery, it
concedes an important property in favour of differentiability:
transportability. In our paper we introduce D-Struct which recovers
transportability in the found structures through a novel architecture and loss
function, while remaining completely differentiable. As D-Struct remains
differentiable, one can easily adopt our method in differentiable architectures
as was previously done with NOTEARS. In our experiments we empirically validate
D-Struct with respect to edge accuracy and the structural Hamming distance.
- Abstract(参考訳): 我々は,有向非巡回グラフィカルモデル(DAG)に着目した教師なし構造学習に興味を持っている。
これらの構造を推論するために必要となる計算は、一般的に変数の量において超指数的である。
つまり、最近の進歩によってこの空間を微分可能な計量を用いて探索できるまで、検索時間は劇的に削減される。
この手法は notears と名付けられ、dag-discovery の独創的な作品と見なされているが、微分可能性(英語版)(transportability)を支持する重要な特性である。
本稿では,新しいアーキテクチャと損失関数により,検出された構造物の輸送性を復元するD-Structを提案する。
D-Structは相変わらず差別化可能であるため、従来NOTEARSで行われていたように、我々の手法を差別化可能なアーキテクチャで容易に適用することができる。
実験では, エッジ精度とハミング距離に関するD構造を実験的に検証した。
関連論文リスト
- Neural Structure Learning with Stochastic Differential Equations [10.20095993097231]
本稿では,ニューラルディファレンシャル方程式と変分推論を組み合わせた新しい構造学習手法SCOTCHを提案する。
この連続的なアプローチは、任意の時点における観測からの学習と予測の両方を自然に処理することができる。
論文 参考訳(メタデータ) (2023-11-06T17:58:47Z) - The divergence time of protein structures modelled by Markov matrices
and its relation to the divergence of sequences [14.676723972349567]
我々は,3次構造のばらつきのマルコフ時間を推定するために,100万組の構造を解析した。
100万組の構造を解析することにより、マルコフの発散時間と配列の関係を導出する。
本稿では,この課題によく使用されるニューラルネットワークアーキテクチャに対する二次構造予測において,競合性能を示す。
論文 参考訳(メタデータ) (2023-08-11T01:32:05Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Latent Hierarchical Causal Structure Discovery with Rank Constraints [19.61598654735681]
我々は、いくつかの変数が潜伏し、階層的なグラフ構造を形成する因果構造同定のための挑戦的なシナリオを考える。
本稿では,潜伏変数を効率よく検出し,その濃度を判定し,潜伏階層構造を同定する推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T03:27:54Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Structurally Diverse Sampling Reduces Spurious Correlations in Semantic
Parsing Datasets [51.095144091781734]
本稿では,構造化された出力を持つラベル付きインスタンスプールから,構造的に多様なインスタンス群をサンプリングする新しいアルゴリズムを提案する。
提案アルゴリズムは, 合成テンプレート分割だけでなく, 従来のID分割においても, 従来のアルゴリズムよりも競合的に動作することを示す。
一般に、多種多様な列車集合は、10組のデータセット分割ペアのうち9組で同じ大きさのランダムな訓練集合よりも優れた一般化をもたらす。
論文 参考訳(メタデータ) (2022-03-16T07:41:27Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Variational Autoencoder with Learned Latent Structure [4.41370484305827]
学習潜在構造を持つ変分オートエンコーダ(VAELLS)について紹介する。
VAELLS は、学習可能な多様体モデルを VAE の潜在空間に組み込む。
我々は、既知の潜在構造を持つ実例でモデルを検証し、実世界のデータセット上でその能力を実証する。
論文 参考訳(メタデータ) (2020-06-18T14:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。