論文の概要: Differentiable and Transportable Structure Learning
- arxiv url: http://arxiv.org/abs/2206.06354v1
- Date: Mon, 13 Jun 2022 17:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 14:53:02.870485
- Title: Differentiable and Transportable Structure Learning
- Title(参考訳): 微分可能かつ伝達可能な構造学習
- Authors: Jeroen Berrevoets, Nabeel Seedat, Fergus Imrie, Mihaela van der Schaar
- Abstract要約: 本稿では,新しい構造と損失関数を用いて,検出された構造物の輸送性を回復するD構造について紹介する。
エッジ精度と構造ハミング距離に関して,D構造を実証的に検証した。
- 参考スコア(独自算出の注目度): 73.84540901950616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We are interested in unsupervised structure learning with a particular focus
on directed acyclic graphical (DAG) models. Compute required to infer these
structures is typically super-exponential in the amount of variables, as
inference requires a sweep of a combinatorially large space of potential
structures. That is, until recent advances allowed to search this space using a
differentiable metric, drastically reducing search time. While this technique
-- named NOTEARS -- is widely considered a seminal work in DAG-discovery, it
concedes an important property in favour of differentiability:
transportability. In our paper we introduce D-Struct which recovers
transportability in the found structures through a novel architecture and loss
function, while remaining completely differentiable. As D-Struct remains
differentiable, one can easily adopt our method in differentiable architectures
as was previously done with NOTEARS. In our experiments we empirically validate
D-Struct with respect to edge accuracy and the structural Hamming distance.
- Abstract(参考訳): 我々は,有向非巡回グラフィカルモデル(DAG)に着目した教師なし構造学習に興味を持っている。
これらの構造を推論するために必要となる計算は、一般的に変数の量において超指数的である。
つまり、最近の進歩によってこの空間を微分可能な計量を用いて探索できるまで、検索時間は劇的に削減される。
この手法は notears と名付けられ、dag-discovery の独創的な作品と見なされているが、微分可能性(英語版)(transportability)を支持する重要な特性である。
本稿では,新しいアーキテクチャと損失関数により,検出された構造物の輸送性を復元するD-Structを提案する。
D-Structは相変わらず差別化可能であるため、従来NOTEARSで行われていたように、我々の手法を差別化可能なアーキテクチャで容易に適用することができる。
実験では, エッジ精度とハミング距離に関するD構造を実験的に検証した。
関連論文リスト
- Learning Discrete Latent Variable Structures with Tensor Rank Conditions [30.292492090200984]
観測されていない離散データは、多くの科学分野においてユビキタスであり、これらの潜伏変数の因果構造を学習する方法は、データパターンを明らかにするために不可欠である。
ほとんどの研究は線形潜在変数モデルに焦点を当てたり、非線型関係や複素潜在構造を含む離散データにおけるケースに対処できない潜在構造に厳密な制約を課す。
観測変数集合 $mathbfX_p$ に対するテンソル階数条件を探索し、その階数が特定の条件集合の最小サポートによって決定されることを示す。
異なる観測変数のランクを探索することで、潜伏変数を特定できる。
論文 参考訳(メタデータ) (2024-06-11T07:25:17Z) - Mitigating Noisy Correspondence by Geometrical Structure Consistency Learning [43.75697355156703]
ノイズ対応は、人間の注釈付きまたはWebクローリングデータセットで広く使われている。
本稿では,真の対応性を推定するための幾何学的構造整合性(GSC)手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T09:42:52Z) - Coordinated Multi-Neighborhood Learning on a Directed Acyclic Graph [6.727984016678534]
因果非巡回グラフ(DAG)の構造を学習することは、機械学習や人工知能の多くの分野で有用である。
強い、しばしば制限的な仮定なしに優れた経験的、理論的結果を得ることは困難である。
本論文では,複数のユーザ特定ターゲットノードの周囲の局所構造を推定する制約に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T08:49:43Z) - Neural Structure Learning with Stochastic Differential Equations [9.076396370870423]
本稿では,ニューラルディファレンシャル方程式と変分推論を組み合わせた新しい構造学習手法SCOTCHを提案する。
この連続的なアプローチは、任意の時点における観測からの学習と予測の両方を自然に処理することができる。
論文 参考訳(メタデータ) (2023-11-06T17:58:47Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Latent Hierarchical Causal Structure Discovery with Rank Constraints [19.61598654735681]
我々は、いくつかの変数が潜伏し、階層的なグラフ構造を形成する因果構造同定のための挑戦的なシナリオを考える。
本稿では,潜伏変数を効率よく検出し,その濃度を判定し,潜伏階層構造を同定する推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T03:27:54Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Structurally Diverse Sampling Reduces Spurious Correlations in Semantic
Parsing Datasets [51.095144091781734]
本稿では,構造化された出力を持つラベル付きインスタンスプールから,構造的に多様なインスタンス群をサンプリングする新しいアルゴリズムを提案する。
提案アルゴリズムは, 合成テンプレート分割だけでなく, 従来のID分割においても, 従来のアルゴリズムよりも競合的に動作することを示す。
一般に、多種多様な列車集合は、10組のデータセット分割ペアのうち9組で同じ大きさのランダムな訓練集合よりも優れた一般化をもたらす。
論文 参考訳(メタデータ) (2022-03-16T07:41:27Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。