論文の概要: Guide: Generalized-Prior and Data Encoders for DAG Estimation
- arxiv url: http://arxiv.org/abs/2509.23992v1
- Date: Sun, 28 Sep 2025 17:35:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.576101
- Title: Guide: Generalized-Prior and Data Encoders for DAG Estimation
- Title(参考訳): ガイド:DAG推定のための一般化Priorとデータエンコーダ
- Authors: Amartya Roy, Devharish N, Shreya Ganguly, Kripabandhu Ghosh,
- Abstract要約: 我々は,Large Language Model (LLM) の生成した隣接行列と,デュアルエンコーダアーキテクチャによる観測データを統合するフレームワークである textbfGUIDE を提案する。
- 参考スコア(独自算出の注目度): 4.295269667589878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern causal discovery methods face critical limitations in scalability, computational efficiency, and adaptability to mixed data types, as evidenced by benchmarks on node scalability (30, $\le 50$, $\ge 70$ nodes), computational energy demands, and continuous/non-continuous data handling. While traditional algorithms like PC, GES, and ICA-LiNGAM struggle with these challenges, exhibiting prohibitive energy costs for higher-order nodes and poor scalability beyond 70 nodes, we propose \textbf{GUIDE}, a framework that integrates Large Language Model (LLM)-generated adjacency matrices with observational data through a dual-encoder architecture. GUIDE uniquely optimizes computational efficiency, reducing runtime on average by $\approx 42%$ compared to RL-BIC and KCRL methods, while achieving an average $\approx 117%$ improvement in accuracy over both NOTEARS and GraN-DAG individually. During training, GUIDE's reinforcement learning agent dynamically balances reward maximization (accuracy) and penalty avoidance (DAG constraints), enabling robust performance across mixed data types and scalability to $\ge 70$ nodes -- a setting where baseline methods fail.
- Abstract(参考訳): 現代の因果探索法は、ノードのスケーラビリティ(30, $\le 50$, $\ge 70$ node)、計算エネルギーの要求、連続的/連続的データ処理のベンチマークによって証明されたように、混合データ型に対するスケーラビリティ、計算効率、適応性の限界に直面している。
PC, GES, ICA-LiNGAMといった従来のアルゴリズムでは, 高次ノードに対する禁断的なエネルギーコストと70ノードを超えるスケーラビリティの低下が問題視される一方で, LLM(Large Language Model)の生成した隣接行列を2エンコーダアーキテクチャによる観測データと統合するフレームワークである‘textbf{GUIDE} を提案する。
GUIDEは計算効率を一意に最適化し、RL-BICやKCRLに比べて平均で42%のランタイムを削減し、NOTEARSやGraN-DAGよりも平均で117%の精度の向上を実現している。
トレーニング中、GUIDEの強化学習エージェントは報酬の最大化(精度)とペナルティ回避(DAG制約)を動的にバランスさせ、混合データ型をまたいだ堅牢なパフォーマンスとスケーラビリティを、ベースラインメソッドがフェールする設定である$$70$ノードに拡張可能にする。
関連論文リスト
- An Efficient Dual-Line Decoder Network with Multi-Scale Convolutional Attention for Multi-organ Segmentation [5.6873464177873245]
本稿では,効率的なデュアルラインデコーダセグメンテーションネットワーク(EDLDNet)を提案する。
提案手法は, モデルロバスト性向上のため, トレーニング時に構造的摂動を取り入れることを学ぶノイズデコーダを特徴とする。
両デコーダから複数スケールのセグメンテーションマスクを活用することにより,変異に基づく損失関数を用いてモデルの一般化を促進する。
論文 参考訳(メタデータ) (2025-08-23T12:34:27Z) - GDSG: Graph Diffusion-based Solution Generator for Optimization Problems in MEC Networks [109.17835015018532]
グラフ拡散型ソリューション生成(GDSG)法を提案する。
このアプローチは、おそらく最適な解に収束しながら、最適以下のデータセットを扱うように設計されている。
グラフニューラルネットワーク(GNN)を用いたマルチタスク拡散モデルとしてGDSGを構築し,高品質な解の分布を求める。
論文 参考訳(メタデータ) (2024-12-11T11:13:43Z) - A New Way: Kronecker-Factored Approximate Curvature Deep Hedging and its Benefits [0.0]
本稿では, Kronecker-Factored Approximate Curvature (K-FAC) 最適化の新たな統合により, ディープヘッジフレームワークの計算効率を向上する。
提案アーキテクチャは,K-FACの2次最適化とLong Short-Term Memory (LSTM)ネットワークを結合する。
論文 参考訳(メタデータ) (2024-11-22T15:19:40Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Ravnest: Decentralized Asynchronous Training on Heterogeneous Devices [0.0]
Ravnestは、計算ノードをクラスタに効率的に整理することで、分散トレーニングを促進する。
遅延更新を伴うブロック構造最適化問題として,非同期SGD損失関数のフレーム化を行った。
論文 参考訳(メタデータ) (2024-01-03T13:07:07Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - JUMBO: Scalable Multi-task Bayesian Optimization using Offline Data [86.8949732640035]
追加データをクエリすることで制限をサイドステップするMBOアルゴリズムであるJUMBOを提案する。
GP-UCBに類似した条件下では, 応答が得られないことを示す。
実世界の2つの最適化問題に対する既存手法に対する性能改善を実証的に示す。
論文 参考訳(メタデータ) (2021-06-02T05:03:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。