論文の概要: Interpretable Causal Representation Learning for Biological Data in the Pathway Space
- arxiv url: http://arxiv.org/abs/2506.12439v1
- Date: Sat, 14 Jun 2025 10:33:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.197401
- Title: Interpretable Causal Representation Learning for Biological Data in the Pathway Space
- Title(参考訳): 経路空間における生物学的データの解釈可能な因果表現学習
- Authors: Jesus de la Fuente, Robert Lehmann, Carlos Ruiz-Arenas, Jan Voges, Irene Marin-Goñi, Xabier Martinez-de-Morentin, David Gomez-Cabrero, Idoia Ochoa, Jesper Tegner, Vincenzo Lagani, Mikel Hernaez,
- Abstract要約: 因果表現学習(Causal Representation Learning)は、生物学的システムを因果的に管理する潜伏要因を特定することを目的としている。
本稿では,潜伏表現を既知の生物学的過程と調和させるモデルSENA-discrepancy-VAEを提案する。
本研究は,SENA-discrepancy-VAEが介入の見当たらない組み合わせにおいて予測性能を達成することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting the impact of genomic and drug perturbations in cellular function is crucial for understanding gene functions and drug effects, ultimately leading to improved therapies. To this end, Causal Representation Learning (CRL) constitutes one of the most promising approaches, as it aims to identify the latent factors that causally govern biological systems, thus facilitating the prediction of the effect of unseen perturbations. Yet, current CRL methods fail in reconciling their principled latent representations with known biological processes, leading to models that are not interpretable. To address this major issue, we present SENA-discrepancy-VAE, a model based on the recently proposed CRL method discrepancy-VAE, that produces representations where each latent factor can be interpreted as the (linear) combination of the activity of a (learned) set of biological processes. To this extent, we present an encoder, SENA-{\delta}, that efficiently compute and map biological processes' activity levels to the latent causal factors. We show that SENA-discrepancy-VAE achieves predictive performances on unseen combinations of interventions that are comparable with its original, non-interpretable counterpart, while inferring causal latent factors that are biologically meaningful.
- Abstract(参考訳): 細胞機能に対するゲノムと薬物の摂動の影響を予測することは、遺伝子機能と薬物効果を理解するために不可欠であり、最終的には治療の改善につながる。
この目的のために、因果表現学習(CRL)は、生物学的システムを因果的に支配する潜在要因を特定することを目的として、最も有望なアプローチの一つである。
しかし、現在のCRL法は、原理化された潜在表現と既知の生物学的プロセスとの整合に失敗し、解釈不可能なモデルへと繋がる。
この問題に対処するため,最近提案されたCRL法に基づくモデルであるSENA-discrepancy-VAEを提案する。
そこで本研究では,生物プロセスの活性レベルを潜在因果因子に効率的に計算し,マッピングするエンコーダSENA-{\deltaを提案する。
本研究は, SENA-discrepancy-VAEが, 生物学的に有意な因果性潜伏因子を推定しながら, 本来の非解釈不可能な介入に匹敵する無意味な組み合わせの予測性能を実現することを示す。
関連論文リスト
- Deep Disentangled Representation Network for Treatment Effect Estimation [17.787544758117377]
観察データから個々のレベルの治療効果を推定することは因果推論の根本的な問題である。
本稿では,多面的注意を伴う専門家の混在を考慮した新しい治療効果推定アルゴリズムを提案する。
我々は、公開半合成および実世界の両方の生産データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2025-07-09T08:29:37Z) - Statistical Learning for Heterogeneous Treatment Effects: Pretraining, Prognosis, and Prediction [40.96453902709292]
実世界の応用における現象を利用した事前学習戦略を提案する。
医学では、同じ生物学的シグナル伝達経路の成分は、ベースラインリスクと治療反応の両方に頻繁に影響を及ぼす。
この構造を用いて、リスク予測と因果効果推定の相乗効果を利用するモデルを開発する。
論文 参考訳(メタデータ) (2025-05-01T05:12:14Z) - Generative Intervention Models for Causal Perturbation Modeling [80.72074987374141]
多くの応用において、システムのメカニズムが外部の摂動によって変更されるかは未定である。
本稿では、これらの摂動特徴を原子間干渉による分布にマッピングする方法を学習する生成的介入モデル(GIM)を提案する。
論文 参考訳(メタデータ) (2024-11-21T10:37:57Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Causal machine learning for single-cell genomics [94.28105176231739]
単細胞ゲノミクスへの機械学習技術の応用とその課題について論じる。
まず, 単一細胞生物学における現在の因果的アプローチの基盤となるモデルについて述べる。
次に、単一セルデータへの因果的アプローチの適用におけるオープンな問題を特定する。
論文 参考訳(メタデータ) (2023-10-23T13:35:24Z) - Neuro-Causal Factor Analysis [18.176375611711396]
神経因果因子分析(NCFA)の枠組みについて紹介する。
NCFAは潜伏因果発見法により因子を同定し、可変オートエンコーダ(VAE)を用いる
NCFAを実データおよび合成データセット上で評価し、データ再構成タスクにおける標準VAEと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-05-31T12:41:20Z) - Data-Driven Estimation of Heterogeneous Treatment Effects [15.140272661540655]
異種治療効果推定(ヘテロジニアス・エフェクト・アセスメント・アセスメント・アセスメント・アセスメント・アセスメント・アセスメント)は、経験科学において重要な問題である。
機械学習を用いた不均一な処理効果推定のための最先端データ駆動手法について調査する。
論文 参考訳(メタデータ) (2023-01-16T21:36:49Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。