論文の概要: Counterfactual Identifiability of Bijective Causal Models
- arxiv url: http://arxiv.org/abs/2302.02228v1
- Date: Sat, 4 Feb 2023 19:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 19:29:19.429422
- Title: Counterfactual Identifiability of Bijective Causal Models
- Title(参考訳): 単射因果モデルの反事実識別可能性
- Authors: Arash Nasr-Esfahany, Mohammad Alizadeh, Devavrat Shah
- Abstract要約: バイジェクティブ・ジェネレーション・メカニズム(BGM)を用いた因果モデルにおける反現実的識別可能性について検討する。
構造的生成モデルとしてBGMを学習する実践的学習法を提案する。
学習されたBGMは効果的な反ファクト推定を可能にし、様々な深い条件付き生成モデルを用いて得ることができる。
- 参考スコア(独自算出の注目度): 22.820102235159368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study counterfactual identifiability in causal models with bijective
generation mechanisms (BGM), a class that generalizes several widely-used
causal models in the literature. We establish their counterfactual
identifiability for three common causal structures with unobserved confounding,
and propose a practical learning method that casts learning a BGM as structured
generative modeling. Learned BGMs enable efficient counterfactual estimation
and can be obtained using a variety of deep conditional generative models. We
evaluate our techniques in a visual task and demonstrate its application in a
real-world video streaming simulation task.
- Abstract(参考訳): 文献で広く使われている複数の因果関係モデルを一般化するクラスであるBGM(Bijective Generation Mechanism)を用いた因果関係モデルの因果関係同定可能性について検討した。
本研究では,観測不能な3つの共通因果構造に対して,BGMの学習を構造的生成モデルとして活用する実践的学習手法を提案する。
学習されたBGMは効果的な反ファクト推定を可能にし、様々な深い条件生成モデルを用いて得ることができる。
本手法を視覚的タスクで評価し,実世界のビデオストリーミングシミュレーションタスクにおけるその応用を実証する。
関連論文リスト
- Unified View of Grokking, Double Descent and Emergent Abilities: A
Perspective from Circuits Competition [83.13280812128411]
近年の研究では、グラッキング、二重降下、大規模言語モデルにおける創発的能力など、ディープラーニングにおける興味深い現象が明らかにされている。
本稿では,記憶回路と一般化回路の競合に着目し,これら3つの現象の統一的な見方を提供する包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-23T08:14:36Z) - Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - Implicit Affordance Acquisition via Causal Action-Effect Modeling in the
Video Domain [5.188825486231326]
近年の知見は,大規模な自己指導型事前学習を通じて世界知識が生まれることを示唆している。
モデルにおける2つの価格特性の獲得を促進するための2つの新しい事前訓練タスクを提案する。
提案手法の有効性を実証的に実証した。
論文 参考訳(メタデータ) (2023-12-18T16:51:26Z) - From Identifiable Causal Representations to Controllable Counterfactual
Generation: A Survey on Causal Generative Modeling [18.318692567104378]
因果モデル(Causal model)は、分散シフトロバスト性(英語版)、公正性(英語版)、相互運用性(英語版)など、深い生成モデルに有益な性質を提供する。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療における因果生成モデルの基本的な理論、定式化、欠点、データセット、メトリクス、および応用に焦点を当てる。
論文 参考訳(メタデータ) (2023-10-17T05:45:32Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。