論文の概要: Differentiable and Transportable Structure Learning
- arxiv url: http://arxiv.org/abs/2206.06354v3
- Date: Fri, 2 Jun 2023 09:27:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 21:05:10.126994
- Title: Differentiable and Transportable Structure Learning
- Title(参考訳): 微分可能かつ伝達可能な構造学習
- Authors: Jeroen Berrevoets, Nabeel Seedat, Fergus Imrie, Mihaela van der Schaar
- Abstract要約: 本稿では,新しいアーキテクチャと損失関数により,発見された構造物の輸送性を回復するD-Structを紹介する。
D-Structは依然として微分可能であるため、既存の微分可能アーキテクチャでは容易に適用できる。
- 参考スコア(独自算出の注目度): 73.84540901950616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Directed acyclic graphs (DAGs) encode a lot of information about a particular
distribution in their structure. However, compute required to infer these
structures is typically super-exponential in the number of variables, as
inference requires a sweep of a combinatorially large space of potential
structures. That is, until recent advances made it possible to search this
space using a differentiable metric, drastically reducing search time. While
this technique -- named NOTEARS -- is widely considered a seminal work in
DAG-discovery, it concedes an important property in favour of
differentiability: transportability. To be transportable, the structures
discovered on one dataset must apply to another dataset from the same domain.
We introduce D-Struct which recovers transportability in the discovered
structures through a novel architecture and loss function while remaining fully
differentiable. Because D-Struct remains differentiable, our method can be
easily adopted in existing differentiable architectures, as was previously done
with NOTEARS. In our experiments, we empirically validate D-Struct with respect
to edge accuracy and structural Hamming distance in a variety of settings.
- Abstract(参考訳): 直接非巡回グラフ(DAG)は、その構造内の特定の分布に関する多くの情報を符号化する。
しかしながら、これらの構造を推測するために必要な計算は通常変数の数において超指数的である、なぜなら推論は組合せ的に大きなポテンシャル構造の空間を網羅する必要があるからである。
つまり、最近の進歩により、この空間を微分可能な計量を用いて探索できるようになり、検索時間を大幅に削減した。
この手法は notears と名付けられ、dag-discovery の独創的な作品と見なされているが、微分可能性(英語版)(transportability)を支持する重要な特性である。
転送可能であるためには、あるデータセットで発見された構造は同じドメインから別のデータセットに適用する必要がある。
我々は, 完全微分可能でありながら, 新たなアーキテクチャと損失関数により, 検出された構造物の輸送性を回復するd-structを導入する。
D-Struct は依然として微分可能であるため,従来の NOTEARS と同様,既存の微分可能アーキテクチャにも容易に適用できる。
実験では,様々な環境下でのエッジ精度と構造ハミング距離に関して,D構造を実証的に検証した。
関連論文リスト
- Learning Discrete Latent Variable Structures with Tensor Rank Conditions [30.292492090200984]
観測されていない離散データは、多くの科学分野においてユビキタスであり、これらの潜伏変数の因果構造を学習する方法は、データパターンを明らかにするために不可欠である。
ほとんどの研究は線形潜在変数モデルに焦点を当てたり、非線型関係や複素潜在構造を含む離散データにおけるケースに対処できない潜在構造に厳密な制約を課す。
観測変数集合 $mathbfX_p$ に対するテンソル階数条件を探索し、その階数が特定の条件集合の最小サポートによって決定されることを示す。
異なる観測変数のランクを探索することで、潜伏変数を特定できる。
論文 参考訳(メタデータ) (2024-06-11T07:25:17Z) - Mitigating Noisy Correspondence by Geometrical Structure Consistency Learning [43.75697355156703]
ノイズ対応は、人間の注釈付きまたはWebクローリングデータセットで広く使われている。
本稿では,真の対応性を推定するための幾何学的構造整合性(GSC)手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T09:42:52Z) - Coordinated Multi-Neighborhood Learning on a Directed Acyclic Graph [6.727984016678534]
因果非巡回グラフ(DAG)の構造を学習することは、機械学習や人工知能の多くの分野で有用である。
強い、しばしば制限的な仮定なしに優れた経験的、理論的結果を得ることは困難である。
本論文では,複数のユーザ特定ターゲットノードの周囲の局所構造を推定する制約に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T08:49:43Z) - Neural Structure Learning with Stochastic Differential Equations [9.076396370870423]
本稿では,ニューラルディファレンシャル方程式と変分推論を組み合わせた新しい構造学習手法SCOTCHを提案する。
この連続的なアプローチは、任意の時点における観測からの学習と予測の両方を自然に処理することができる。
論文 参考訳(メタデータ) (2023-11-06T17:58:47Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - Latent Hierarchical Causal Structure Discovery with Rank Constraints [19.61598654735681]
我々は、いくつかの変数が潜伏し、階層的なグラフ構造を形成する因果構造同定のための挑戦的なシナリオを考える。
本稿では,潜伏変数を効率よく検出し,その濃度を判定し,潜伏階層構造を同定する推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T03:27:54Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Structurally Diverse Sampling Reduces Spurious Correlations in Semantic
Parsing Datasets [51.095144091781734]
本稿では,構造化された出力を持つラベル付きインスタンスプールから,構造的に多様なインスタンス群をサンプリングする新しいアルゴリズムを提案する。
提案アルゴリズムは, 合成テンプレート分割だけでなく, 従来のID分割においても, 従来のアルゴリズムよりも競合的に動作することを示す。
一般に、多種多様な列車集合は、10組のデータセット分割ペアのうち9組で同じ大きさのランダムな訓練集合よりも優れた一般化をもたらす。
論文 参考訳(メタデータ) (2022-03-16T07:41:27Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。