論文の概要: Structural Causal Bottleneck Models
- arxiv url: http://arxiv.org/abs/2603.08682v2
- Date: Mon, 16 Mar 2026 16:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:57.491064
- Title: Structural Causal Bottleneck Models
- Title(参考訳): 構造的因果ネックモデル
- Authors: Simon Bing, Jonas Wahl, Jakob Runge,
- Abstract要約: 構造因果ボトルネックモデル(SCBM)を導入する。
SCBMの中核には、高次元変数間の因果効果は低次元の要約統計に依存するという仮定がある。
SCBMは因果的表現学習や因果的抽象学習のような既存の因果的次元削減フレームワークに代わるものだと我々は主張する。
- 参考スコア(独自算出の注目度): 8.080027742321706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce structural causal bottleneck models (SCBMs), a novel class of structural causal models. At the core of SCBMs lies the assumption that causal effects between high-dimensional variables only depend on low-dimensional summary statistics, or bottlenecks, of the causes. SCBMs provide a flexible framework for task-specific dimension reduction while being estimable via standard, simple learning algorithms in practice. We analyse identifiability in SCBMs, connect them to information bottlenecks in the sense of Tishby & Zaslavsky (2015), and illustrate how to estimate them experimentally. We also demonstrate the benefit of bottlenecks for effect estimation in low-sample transfer learning settings. We argue that SCBMs provide an alternative to existing causal dimension reduction frameworks like causal representation learning or causal abstraction learning.
- Abstract(参考訳): 構造因果ボトルネックモデル(SCBM)は,構造因果ボトルネックモデルの新しいクラスである。
SCBMの中核には、高次元変数間の因果効果は原因の低次元の要約統計(ボトルネック)にのみ依存する、という仮定がある。
SCBMはタスク固有の次元削減のためのフレキシブルなフレームワークを提供するが、実際は標準的な単純な学習アルゴリズムで推定できる。
我々はSCBMにおける識別可能性を分析し、これらをTishby & Zaslavsky (2015) の意味での情報ボトルネックに接続し、それらを実験的に見積もる方法について説明する。
また,低サンプル移動学習環境における効果推定におけるボトルネックの利点を示す。
SCBMは因果的表現学習や因果的抽象学習のような既存の因果的次元削減フレームワークに代わるものだと我々は主張する。
関連論文リスト
- Rethinking Concept Bottleneck Models: From Pitfalls to Solutions [53.84388497227224]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解可能な概念の基底予測である。
CBM-Suiteはこれらの課題に対処するための方法論的なフレームワークである。
論文 参考訳(メタデータ) (2026-03-05T19:37:49Z) - LIBERTy: A Causal Framework for Benchmarking Concept-Based Explanations of LLMs with Structural Counterfactuals [18.015918696398085]
概念に基づく説明は、高レベルの概念がモデル行動にどのように影響するかを定量化する。
既存のベンチマークは、不完全なプロキシとして機能する費用のかかる人手による対策に依存しています。
本稿では,構造上の逆ファクトペアを含むデータセットを構築するためのフレームワーク,LIBERTyを紹介する。
論文 参考訳(メタデータ) (2026-01-15T18:54:50Z) - Controllable Concept Bottleneck Models [55.03639763625018]
制御可能な概念ボトルネックモデル(CCBM)
CCBMは、概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートする。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
論文 参考訳(メタデータ) (2026-01-01T19:30:06Z) - How and Why LLMs Generalize: A Fine-Grained Analysis of LLM Reasoning from Cognitive Behaviors to Low-Level Patterns [51.02752099869218]
大きな言語モデル(LLM)は、非常に異なる一般化の振る舞いを示す。
推論を原子核スキルに分解する新しいベンチマークを導入する。
SFTモデルはよりシャープなドリフトと表面パターンへの過度な適合を示すのに対し、RL型モデルはより安定した行動プロファイルを維持し、推論スキルの崩壊に抵抗することを示す。
論文 参考訳(メタデータ) (2025-12-30T08:16:20Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Learning Structural Causal Models from Ordering: Identifiable Flow Models [19.99352354910655]
本稿では,変数の可逆変換を部品的に再現するフローモデルを提案する。
本稿では,すべての因果メカニズムの同時学習を可能にする設計改善を提案する。
本手法は,既存の拡散法に比べて計算時間を大幅に短縮する。
論文 参考訳(メタデータ) (2024-12-13T04:25:56Z) - Specify Robust Causal Representation from Mixed Observations [35.387451486213344]
観測から純粋に表現を学習することは、予測モデルに有利な低次元のコンパクトな表現を学習する問題を懸念する。
本研究では,観測データからこのような表現を学習するための学習手法を開発した。
理論的および実験的に、学習された因果表現で訓練されたモデルは、敵の攻撃や分布シフトの下でより堅牢であることを示す。
論文 参考訳(メタデータ) (2023-10-21T02:18:35Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Relational Concept Bottleneck Models [13.311396882130033]
概念ボトルネックモデル(CBM)は問題を解決するために設計されていない。
R-CBMは標準CBMとリレーショナルGNNの両方を表現できる。
特に,R-CBMが概念に基づく説明の生成を支援することを示す。
論文 参考訳(メタデータ) (2023-08-23T08:25:33Z) - Learning Latent Structural Causal Models [31.686049664958457]
機械学習タスクでは、画像ピクセルや高次元ベクトルのような低レベルのデータを扱うことが多い。
本稿では,潜在構造因果モデルの因果変数,構造,パラメータについて共同推論を行う,抽出可能な近似推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T20:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。