論文の概要: CAUSAL3D: A Comprehensive Benchmark for Causal Learning from Visual Data
- arxiv url: http://arxiv.org/abs/2503.04852v1
- Date: Thu, 06 Mar 2025 03:40:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:23:33.054530
- Title: CAUSAL3D: A Comprehensive Benchmark for Causal Learning from Visual Data
- Title(参考訳): CAUSAL3D:ビジュアルデータによる因果学習のための総合ベンチマーク
- Authors: Disheng Liu, Yiran Qiao, Wuche Liu, Yiren Lu, Yunlai Zhou, Tuo Liang, Yu Yin, Jing Ma,
- Abstract要約: 我々は、構造化されたデータ(テーブル)と対応する視覚表現(画像)を統合する新しいベンチマークであるtextsctextbfCausal3Dを導入し、因果推論を評価する。
Causal3Dは、多様な因果関係、ビュー、背景をキャプチャする19の3Dシーンデータセットで構成されている。
- 参考スコア(独自算出の注目度): 10.435321637846142
- License:
- Abstract: True intelligence hinges on the ability to uncover and leverage hidden causal relations. Despite significant progress in AI and computer vision (CV), there remains a lack of benchmarks for assessing models' abilities to infer latent causality from complex visual data. In this paper, we introduce \textsc{\textbf{Causal3D}}, a novel and comprehensive benchmark that integrates structured data (tables) with corresponding visual representations (images) to evaluate causal reasoning. Designed within a systematic framework, Causal3D comprises 19 3D-scene datasets capturing diverse causal relations, views, and backgrounds, enabling evaluations across scenes of varying complexity. We assess multiple state-of-the-art methods, including classical causal discovery, causal representation learning, and large/vision-language models (LLMs/VLMs). Our experiments show that as causal structures grow more complex without prior knowledge, performance declines significantly, highlighting the challenges even advanced methods face in complex causal scenarios. Causal3D serves as a vital resource for advancing causal reasoning in CV and fostering trustworthy AI in critical domains.
- Abstract(参考訳): 真の知性は、隠れた因果関係を発見し、活用する能力に基づいている。
AIとコンピュータビジョン(CV)の大幅な進歩にもかかわらず、複雑な視覚データから潜在因果関係を推測するモデルの能力を評価するためのベンチマークは依然として不足している。
本稿では、構造化されたデータ(テーブル)と対応する視覚的表現(イメージ)を統合し、因果推論を評価する新しい総合的なベンチマークである \textsc{\textbf{Causal3D}} を紹介する。
体系的なフレームワークで設計されたCausal3Dは、さまざまな因果関係、ビュー、バックグラウンドをキャプチャする19の3Dシーンデータセットで構成され、さまざまな複雑さのシーンで評価を可能にする。
我々は,古典的因果発見,因果表現学習,大規模/視覚言語モデル(LLMs/VLMs)など,最先端の複数の手法を評価する。
我々の実験は、因果構造が事前の知識なしに複雑化するにつれて、性能が著しく低下し、複雑な因果シナリオにおいて高度な手法が直面する課題が浮き彫りになることを示している。
Causal3DはCVの因果推論を推し進め、重要な領域で信頼できるAIを育む上で重要な資源となる。
関連論文リスト
- Look, Learn and Leverage (L$^3$): Mitigating Visual-Domain Shift and Discovering Intrinsic Relations via Symbolic Alignment [19.700374722227107]
学習過程を3つの相に分解する新しい学習フレームワークであるLook, Learn and Leverage (L$3$)を提案する。
関係発見モデルは、ソースドメイン上でトレーニングすることができ、視覚領域シフトや本質的な関係が欠如している場合には、事前学習された関係発見モデルを直接再利用し、良好な性能を維持することができる。
論文 参考訳(メタデータ) (2024-08-30T15:53:48Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - SSL Framework for Causal Inconsistency between Structures and Representations [31.895570222735955]
因果発見と深層学習の相互補間は、ますます広範囲にわたる相互作用を引き起こしている。
不確定データは、因果構造によって表現される因果関係と、深層学習モデルによって生成される因果表現との間に矛盾がある。
因果不整合を軽減するために,介入に基づく自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-28T08:29:49Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - Context De-confounded Emotion Recognition [12.037240778629346]
コンテキストアウェア感情認識(CAER)は、対象者の感情状態を文脈情報で知覚することを目的としている。
長年見過ごされてきた問題は、既存のデータセットのコンテキストバイアスが感情状態のかなり不均衡な分布をもたらすことである。
本稿では、そのようなバイアスの影響からモデルを切り離し、CAERタスクにおける変数間の因果関係を定式化する因果関係に基づく視点を提供する。
論文 参考訳(メタデータ) (2023-03-21T15:12:20Z) - Causal Triplet: An Open Challenge for Intervention-centric Causal
Representation Learning [98.78136504619539]
Causal Tripletは、視覚的に複雑なシーンを特徴とする因果表現学習ベンチマークである。
この結果から,不整合表現やオブジェクト中心表現の知識によって構築されたモデルが,分散表現よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2023-01-12T17:43:38Z) - Cross-Modal Causal Relational Reasoning for Event-Level Visual Question
Answering [134.91774666260338]
既存の視覚的質問応答法は、しばしばクロスモーダルなスプリアス相関と過度に単純化されたイベントレベルの推論プロセスに悩まされる。
本稿では,イベントレベルの視覚的質問応答の課題に対処するために,モーダルな因果関係推論のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-26T04:25:54Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Visual Causality Analysis of Event Sequence Data [32.74361488457415]
イベントシーケンスデータの因果関係を復元する視覚解析手法を提案する。
我々は,Hawkesプロセス上のGranger因果解析アルゴリズムを拡張し,ユーザフィードバックを因果モデルの改良に組み込む。
論文 参考訳(メタデータ) (2020-09-01T04:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。