論文の概要: Quantifying Consistency and Information Loss for Causal Abstraction
Learning
- arxiv url: http://arxiv.org/abs/2305.04357v1
- Date: Sun, 7 May 2023 19:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:11:51.683065
- Title: Quantifying Consistency and Information Loss for Causal Abstraction
Learning
- Title(参考訳): 因果抽象学習における一貫性と情報損失の定量化
- Authors: Fabio Massimo Zennaro, Paolo Turrini, Theodoros Damoulas
- Abstract要約: 我々は、エージェントがそのようなトレードオフを評価するために使用できる介入措置のファミリーを紹介する。
我々は,異なるタスクに適した4つの尺度を考察し,その特性を分析し,因果的抽象を評価・学習するためのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.17846886492361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural causal models provide a formalism to express causal relations
between variables of interest. Models and variables can represent a system at
different levels of abstraction, whereby relations may be coarsened and refined
according to the need of a modeller. However, switching between different
levels of abstraction requires evaluating a trade-off between the consistency
and the information loss among different models. In this paper we introduce a
family of interventional measures that an agent may use to evaluate such a
trade-off. We consider four measures suited for different tasks, analyze their
properties, and propose algorithms to evaluate and learn causal abstractions.
Finally, we illustrate the flexibility of our setup by empirically showing how
different measures and algorithmic choices may lead to different abstractions.
- Abstract(参考訳): 構造因果モデルは、興味のある変数間の因果関係を表現するフォーマリズムを提供する。
モデルと変数は異なる抽象レベルでシステムを表現することができ、モデルラーのニーズに応じて関係を粗くして洗練することができる。
しかし、異なる抽象化レベル間の切り替えには、一貫性と異なるモデル間の情報損失の間のトレードオフを評価する必要がある。
本稿では,エージェントがそのようなトレードオフを評価するために使用できる介入措置のファミリーを紹介する。
我々は,異なるタスクに適した4つの尺度を考察し,その特性を分析し,因果的抽象化を評価するアルゴリズムを提案する。
最後に,さまざまな指標やアルゴリズムの選択が抽象化にどのようにつながるのかを実証的に示すことで,セットアップの柔軟性を示す。
関連論文リスト
- Learning Structural Causal Models from Ordering: Identifiable Flow Models [19.99352354910655]
本稿では,変数の可逆変換を部品的に再現するフローモデルを提案する。
本稿では,すべての因果メカニズムの同時学習を可能にする設計改善を提案する。
本手法は,既存の拡散法に比べて計算時間を大幅に短縮する。
論文 参考訳(メタデータ) (2024-12-13T04:25:56Z) - Building Minimal and Reusable Causal State Abstractions for
Reinforcement Learning [63.58935783293342]
Causal Bisimulation Modeling (CBM) は、各タスクのダイナミクスと報酬関数の因果関係を学習し、最小限のタスク固有の抽象化を導出する手法である。
CBMの学習された暗黙的ダイナミクスモデルは、明確なものよりも根底にある因果関係と状態抽象化を正確に識別する。
論文 参考訳(メタデータ) (2024-01-23T05:43:15Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Towards Computing an Optimal Abstraction for Structural Causal Models [16.17846886492361]
我々は抽象学習の問題に焦点をあてる。
我々は,情報損失の具体的な尺度を提案し,その新しい抽象化の学習への貢献について説明する。
論文 参考訳(メタデータ) (2022-08-01T14:35:57Z) - Abstraction between Structural Causal Models: A Review of Definitions
and Properties [0.0]
構造因果モデル (Structure causal model, SCM) は因果系を扱うための広範な形式主義である。
本稿では,SCM間の写像の形式的特性に着目し,これらの特性を適用可能な異なる層(構造的,分布的)を強調した。
論文 参考訳(メタデータ) (2022-07-18T13:47:20Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Learning Structured Latent Factors from Dependent Data:A Generative
Model Framework from Information-Theoretic Perspective [18.88255368184596]
本稿では,潜在空間における様々な基盤構造を持つ生成モデル学習のための新しいフレームワークを提案する。
我々のモデルは、様々なタイプの望まれる構造を反映した意味論的に意味のある潜在因子の集合を学習するための原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2020-07-21T06:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。