論文の概要: Quantifying Consistency and Information Loss for Causal Abstraction
Learning
- arxiv url: http://arxiv.org/abs/2305.04357v1
- Date: Sun, 7 May 2023 19:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:11:51.683065
- Title: Quantifying Consistency and Information Loss for Causal Abstraction
Learning
- Title(参考訳): 因果抽象学習における一貫性と情報損失の定量化
- Authors: Fabio Massimo Zennaro, Paolo Turrini, Theodoros Damoulas
- Abstract要約: 我々は、エージェントがそのようなトレードオフを評価するために使用できる介入措置のファミリーを紹介する。
我々は,異なるタスクに適した4つの尺度を考察し,その特性を分析し,因果的抽象を評価・学習するためのアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 16.17846886492361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structural causal models provide a formalism to express causal relations
between variables of interest. Models and variables can represent a system at
different levels of abstraction, whereby relations may be coarsened and refined
according to the need of a modeller. However, switching between different
levels of abstraction requires evaluating a trade-off between the consistency
and the information loss among different models. In this paper we introduce a
family of interventional measures that an agent may use to evaluate such a
trade-off. We consider four measures suited for different tasks, analyze their
properties, and propose algorithms to evaluate and learn causal abstractions.
Finally, we illustrate the flexibility of our setup by empirically showing how
different measures and algorithmic choices may lead to different abstractions.
- Abstract(参考訳): 構造因果モデルは、興味のある変数間の因果関係を表現するフォーマリズムを提供する。
モデルと変数は異なる抽象レベルでシステムを表現することができ、モデルラーのニーズに応じて関係を粗くして洗練することができる。
しかし、異なる抽象化レベル間の切り替えには、一貫性と異なるモデル間の情報損失の間のトレードオフを評価する必要がある。
本稿では,エージェントがそのようなトレードオフを評価するために使用できる介入措置のファミリーを紹介する。
我々は,異なるタスクに適した4つの尺度を考察し,その特性を分析し,因果的抽象化を評価するアルゴリズムを提案する。
最後に,さまざまな指標やアルゴリズムの選択が抽象化にどのようにつながるのかを実証的に示すことで,セットアップの柔軟性を示す。
関連論文リスト
- Building Minimal and Reusable Causal State Abstractions for
Reinforcement Learning [63.58935783293342]
Causal Bisimulation Modeling (CBM) は、各タスクのダイナミクスと報酬関数の因果関係を学習し、最小限のタスク固有の抽象化を導出する手法である。
CBMの学習された暗黙的ダイナミクスモデルは、明確なものよりも根底にある因果関係と状態抽象化を正確に識別する。
論文 参考訳(メタデータ) (2024-01-23T05:43:15Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Jointly Learning Consistent Causal Abstractions Over Multiple
Interventional Distributions [8.767175335575386]
抽象化は、同じシステムを表す2つの構造因果モデルを異なる解像度で関連付けるために使用できる。
リシェルが最近提案した抽象化の形式化に基づく,SCM間の因果的抽象化学習のための第1のフレームワークを紹介する。
論文 参考訳(メタデータ) (2023-01-14T11:22:16Z) - Towards Computing an Optimal Abstraction for Structural Causal Models [16.17846886492361]
我々は抽象学習の問題に焦点をあてる。
我々は,情報損失の具体的な尺度を提案し,その新しい抽象化の学習への貢献について説明する。
論文 参考訳(メタデータ) (2022-08-01T14:35:57Z) - Abstraction between Structural Causal Models: A Review of Definitions
and Properties [0.0]
構造因果モデル (Structure causal model, SCM) は因果系を扱うための広範な形式主義である。
本稿では,SCM間の写像の形式的特性に着目し,これらの特性を適用可能な異なる層(構造的,分布的)を強調した。
論文 参考訳(メタデータ) (2022-07-18T13:47:20Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Learning Structured Latent Factors from Dependent Data:A Generative
Model Framework from Information-Theoretic Perspective [18.88255368184596]
本稿では,潜在空間における様々な基盤構造を持つ生成モデル学習のための新しいフレームワークを提案する。
我々のモデルは、様々なタイプの望まれる構造を反映した意味論的に意味のある潜在因子の集合を学習するための原則化されたアプローチを提供する。
論文 参考訳(メタデータ) (2020-07-21T06:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。