論文の概要: Generalization of LiNGAM that allows confounding
- arxiv url: http://arxiv.org/abs/2401.16661v2
- Date: Thu, 1 Feb 2024 02:08:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-02 11:50:50.817888
- Title: Generalization of LiNGAM that allows confounding
- Title(参考訳): コンバウンディングを可能にするLiNGAMの一般化
- Authors: Joe Suzuki and Tian-Le Yang
- Abstract要約: LiNGAMは、加算雑音モデルを用いて原因から効果までの変数順序を決定する。
それまでの手法では、コンバウンディングの有無にかかわらず、重要な計算資源を必要としていた。
コンバウンディングの大きさを定量化するLiNGAM-MMIを導入することでLiNGAMを向上する。
- 参考スコア(独自算出の注目度): 1.0878040851637998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiNGAM determines the variable order from cause to effect using additive
noise models, but it faces challenges with confounding. Previous methods
maintained LiNGAM's fundamental structure while trying to identify and address
variables affected by confounding. As a result, these methods required
significant computational resources regardless of the presence of confounding,
and they did not ensure the detection of all confounding types. In contrast,
this paper enhances LiNGAM by introducing LiNGAM-MMI, a method that quantifies
the magnitude of confounding using KL divergence and arranges the variables to
minimize its impact. This method efficiently achieves a globally optimal
variable order through the shortest path problem formulation. LiNGAM-MMI
processes data as efficiently as traditional LiNGAM in scenarios without
confounding while effectively addressing confounding situations. Our
experimental results suggest that LiNGAM-MMI more accurately determines the
correct variable order, both in the presence and absence of confounding.
- Abstract(参考訳): lingamは加算ノイズモデルを用いて変数の順序を原因から効果まで決定するが、コンファウンディングの課題に直面している。
従来はLiNGAMの基本的な構造を維持していたが、コンバウンディングによって影響を受ける変数を特定し、対処しようとした。
その結果、これらの手法は、コンファウンディングの有無に関わらず、重要な計算資源を必要とし、全てのコンファウンド型の検出を確実にしなかった。
これとは対照的に,本論文では,KL分散を用いたコンバウンディングの大きさを定量化し,その影響を最小限に抑える方法であるLiNGAM-MMIを導入することでLiNGAMを強化する。
最短経路問題定式化を通じて、グローバル最適変数次数を効率良く達成する。
LiNGAM-MMIは、相反する状況に効果的に対応しつつも、相反しないシナリオで、従来のLiNGAMと同じくらい効率的にデータを処理します。
実験の結果,lingam-mmiはコンファウンディングの有無に関わらず,より正確に正しい変数順序を決定できることが示唆された。
関連論文リスト
- Task-Awareness Improves LLM Generations and Uncertainty [48.857040212979484]
ベイズ最適応答は、ビームサーチのような標準的な復号法より一貫して優れている。
我々の決定論的なフレームワークは、潜在応答構造を持つあらゆる問題に適用できる。
論文 参考訳(メタデータ) (2026-01-29T10:16:23Z) - BOTS: A Unified Framework for Bayesian Online Task Selection in LLM Reinforcement Finetuning [82.925106913459]
強化微調整(Reinforcement Finetuning, RFT)は、大規模言語モデル(LLM)を人間の嗜好と整合させ、推論を強化するための重要な手法である。
RFT強化微調整におけるベイズオンラインタスク選択のための統合フレームワークBOTSを紹介する。
論文 参考訳(メタデータ) (2025-10-30T11:15:23Z) - In-Context Learning Is Provably Bayesian Inference: A Generalization Theory for Meta-Learning [51.56484100374058]
本稿では,ICLリスクをベイズギャップとポストリアバリアンスの2つのコンポーネントに分割する基本的リスク分解を導入する。
一様アテンション変換器の場合、このギャップの非漸近上界を導出し、事前学習プロンプトの数への依存を明確にする。
後方変動は本質的なタスクの不確実性を表すモデルに依存しないリスクである。
論文 参考訳(メタデータ) (2025-10-13T03:42:31Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
Segment Anything Model (SAM) は、その顕著な一般化能力により、異常セグメンテーションタスクにおいて大きな進歩を遂げている。
SAMを直接適用する既存のメソッドは、しばしばドメインシフトの問題を見落としている。
本稿では, SAMの異常セグメンテーションに対する知覚能力を高めることを目的とした, 自己パーセプティノンチューニング(SPT)手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - Overcoming the Curse of Dimensionality in Reinforcement Learning Through Approximate Factorization [15.898378661128334]
強化学習(RL)アルゴリズムは次元性の呪いに苦しむことが知られている。
本稿では,元のマルコフ決定過程(MDP)を,より小さく,独立に進化するMDPに大まかに分解することで,次元性の呪いを克服することを提案する。
提案手法は,両アルゴリズムに改良された複雑性保証を提供する。
論文 参考訳(メタデータ) (2024-11-12T07:08:00Z) - Disentangled Noisy Correspondence Learning [56.06801962154915]
クロスモーダル検索は、モダリティ間の潜在対応を理解する上で重要である。
DisNCLはノイズ対応学習における特徴分散のための新しい情報理論フレームワークである。
論文 参考訳(メタデータ) (2024-08-10T09:49:55Z) - Order-Independence Without Fine Tuning [18.020492646988746]
本稿では,LLMの出力が指定されたサブシーケンスのセットに順序依存しないことを保証する手法であるSet-Based Promptingを提案する。
我々の入力が分布外であるにもかかわらず、期待される精度への影響は小さく、予測は、一様に選択された応答のシャッフルの順序を超える。
論文 参考訳(メタデータ) (2024-06-04T16:09:13Z) - Redefining the Shortest Path Problem Formulation of the Linear Non-Gaussian Acyclic Model: Pairwise Likelihood Ratios, Prior Knowledge, and Path Enumeration [0.0]
本稿では,LiNGAM-SPPフレームワークの3倍拡張を提案する。
パラメータチューニングの必要性は、kNNベースの相互情報の代わりに、ペアワイズ確率比を用いて排除される。
先行知識の組み入れは、すべての因果順序のグラフ表現に実装されたノードスキッピング戦略によって実現される。
論文 参考訳(メタデータ) (2024-04-18T05:59:28Z) - AcceleratedLiNGAM: Learning Causal DAGs at the speed of GPUs [57.12929098407975]
既存の因果探索法を効率的に並列化することにより,数千次元まで拡張可能であることを示す。
具体的には、DirectLiNGAMの因果順序付けサブプロデューサに着目し、GPUカーネルを実装して高速化する。
これにより、遺伝子介入による大規模遺伝子発現データに対する因果推論にDirectLiNGAMを適用することで、競争結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T15:06:11Z) - Merging Multi-Task Models via Weight-Ensembling Mixture of Experts [64.94129594112557]
異なるタスクでトレーニングされたTransformerベースのモデルを単一の統一モデルにマージすることで、すべてのタスクを同時に実行できる。
従来の手法は、タスク演算によって例示され、効率的かつスケーラブルであることが証明されている。
本稿では,Transformer層をMoEモジュールにアップスケーリングしながら,ほとんどのパラメータをマージすることを提案する。
論文 参考訳(メタデータ) (2024-02-01T08:58:57Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - TSLiNGAM: DirectLiNGAM under heavy tails [0.0]
本研究では、観測データに基づく因果モデルのDAGを同定する新しい手法TSLiNGAMを提案する。
TSLiNGAMは、変数間の因果方向を識別するために単純なOLS回帰を利用する人気アルゴリズムであるDirectLiNGAMをベースにしている。
重み付きおよび歪んだデータに対して著しく優れた性能を示し、より小さなサンプル効率を示す。
論文 参考訳(メタデータ) (2023-08-10T08:34:46Z) - Relational Reasoning via Set Transformers: Provable Efficiency and
Applications to MARL [154.13105285663656]
置換不変エージェントフレームワークを用いたMARL(Multi-A gent R einforcement Learning)は,実世界のアプリケーションにおいて大きな実証的成功を収めた。
残念なことに、このMARL問題の理論的理解は、多くのエージェントの呪いと、既存の著作における関係推論の限定的な探索によって欠落している。
モデルフリーアルゴリズムとモデルベースアルゴリズムの最適度差は各エージェント数に独立して対数的であり、多くのエージェントの呪いを和らげる。
論文 参考訳(メタデータ) (2022-09-20T16:42:59Z) - Causal Order Identification to Address Confounding: Binary Variables [4.56877715768796]
本稿では,線形非ガウス非巡回モデル(LiNGAM)の拡張について考察する。
LiNGAMは、変数が雑音を含む一連の線形方程式で表されるとき、データセットから変数間の因果順序を決定する。
論文 参考訳(メタデータ) (2021-08-10T22:09:43Z) - Generalized ADMM in Distributed Learning via Variational Inequality [7.013072937051018]
コンセンサス変数の概念による乗算器の交互方向法(ADMM)は実用的なアルゴリズムである。
本稿では,ADMMの分散学習におけるユーザのローカルデータセットの効果について検討する。
論文 参考訳(メタデータ) (2021-04-26T14:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。