論文の概要: Robust agents learn causal world models
- arxiv url: http://arxiv.org/abs/2402.10877v2
- Date: Fri, 23 Feb 2024 10:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:08:11.207871
- Title: Robust agents learn causal world models
- Title(参考訳): ロバストエージェントは因果世界モデルを学ぶ
- Authors: Jonathan Richens, Tom Everitt
- Abstract要約: データ生成過程の因果関係を近似的に学習したと考えられる。
転帰学習や因果推論など,いくつかの研究領域において,この結果がもたらす意味について論じる。
- 参考スコア(独自算出の注目度): 9.268090805595577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has long been hypothesised that causal reasoning plays a fundamental role
in robust and general intelligence. However, it is not known if agents must
learn causal models in order to generalise to new domains, or if other
inductive biases are sufficient. We answer this question, showing that any
agent capable of satisfying a regret bound under a large set of distributional
shifts must have learned an approximate causal model of the data generating
process, which converges to the true causal model for optimal agents. We
discuss the implications of this result for several research areas including
transfer learning and causal inference.
- Abstract(参考訳): 因果推論は強固で汎用的な知性において基本的な役割を担っていると長い間仮説されてきた。
しかし、エージェントが新しい領域に一般化するために因果モデルを学ぶ必要があるか、あるいは他の帰納バイアスが十分であるかどうかは不明である。
この問いに答え、分布シフトの大きな集合の下で束縛された後悔を満足できるエージェントは、最適なエージェントの真の因果モデルに収束するデータ生成プロセスの近似因果モデルを学ぶ必要があることを示した。
転校学習や因果推論など,いくつかの研究分野におけるこの結果の意義について考察する。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Discovering Agents [10.751378433775606]
エージェントの因果モデルは、機械学習システムの安全性の側面を分析するために使われてきた。
本稿では, エージェントの因果的定義を初めて提唱する。エージェントは, アクションが世界に影響を与える場合, エージェントが政策に適応するシステムであることを概ね示唆する。
論文 参考訳(メタデータ) (2022-08-17T15:13:25Z) - Active Bayesian Causal Inference [72.70593653185078]
因果発見と推論を統合するための完全ベイズ能動学習フレームワークであるアクティブベイズ因果推論(ABCI)を提案する。
ABCIは因果関係のモデルと関心のクエリを共同で推論する。
我々のアプローチは、完全な因果グラフの学習のみに焦点を当てた、いくつかのベースラインよりも、よりデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-06-04T22:38:57Z) - Causality Inspired Representation Learning for Domain Generalization [47.574964496891404]
本稿では、ドメイン一般化問題を形式化する一般的な構造因果モデルを提案する。
我々の目標は、入力から因果因子を抽出し、不変因果機構を再構築することである。
理想的な因果因子は、非因果的要因から分離され、共同独立であり、分類に十分な因果的要因である。
論文 参考訳(メタデータ) (2022-03-27T08:08:33Z) - Adversarially Robust Models may not Transfer Better: Sufficient
Conditions for Domain Transferability from the View of Regularization [17.825841580342715]
機械学習の堅牢性とドメインの一般化は基本的に相関している。
最近の研究では、より堅牢な(逆向きに訓練された)モデルの方がより一般化可能であることが示されている。
彼らの基本的な関係に関する理論的理解が欠如している。
論文 参考訳(メタデータ) (2022-02-03T20:26:27Z) - A General Framework for Distributed Inference with Uncertain Models [14.8884251609335]
異種エージェントのネットワークを用いた分散分類の問題について検討する。
我々は、エージェントの不確実性を可能性に組み込む不確実性モデルの概念に基づいて構築する。
論文 参考訳(メタデータ) (2020-11-20T22:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。