論文の概要: Causal reasoning in typical computer vision tasks
- arxiv url: http://arxiv.org/abs/2307.13992v2
- Date: Mon, 31 Jul 2023 02:53:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:43:41.768501
- Title: Causal reasoning in typical computer vision tasks
- Title(参考訳): コンピュータビジョンタスクにおける因果推論
- Authors: Kexuan Zhang, Qiyu Sun, Chaoqiang Zhao and Yang Tang
- Abstract要約: 因果理論は、データバイアスの影響を受けない本質的な因果構造をモデル化し、突発的な相関を避けるのに有効である。
本稿では,一般的な視覚・視覚言語タスクにおける既存の因果的手法(セグメンテーション,オブジェクト検出,画像キャプションなど)を包括的にレビューすることを目的とする。
今後のロードマップも提案され、因果論の開発と他の複雑なシーンやシステムへの応用が促進される。
- 参考スコア(独自算出の注目度): 11.95181390654463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has revolutionized the field of artificial intelligence. Based
on the statistical correlations uncovered by deep learning-based methods,
computer vision has contributed to tremendous growth in areas like autonomous
driving and robotics. Despite being the basis of deep learning, such
correlation is not stable and is susceptible to uncontrolled factors. In the
absence of the guidance of prior knowledge, statistical correlations can easily
turn into spurious correlations and cause confounders. As a result, researchers
are now trying to enhance deep learning methods with causal theory. Causal
theory models the intrinsic causal structure unaffected by data bias and is
effective in avoiding spurious correlations. This paper aims to comprehensively
review the existing causal methods in typical vision and vision-language tasks
such as semantic segmentation, object detection, and image captioning. The
advantages of causality and the approaches for building causal paradigms will
be summarized. Future roadmaps are also proposed, including facilitating the
development of causal theory and its application in other complex scenes and
systems.
- Abstract(参考訳): ディープラーニングは人工知能の分野に革命をもたらした。
深層学習に基づく手法で明らかになった統計的相関に基づき、コンピュータビジョンは自動運転やロボティクスといった分野において大きな成長をもたらした。
深層学習の基礎であるにもかかわらず、そのような相関関係は安定ではなく、制御されていない要因に影響を受けやすい。
事前知識のガイダンスがないと、統計的相関は容易に素早い相関に変わり、共同設立者を引き起こす。
その結果、研究者は因果理論による深層学習の手法を強化しようとしている。
因果理論は、データバイアスに影響を受けない固有の因果構造をモデル化し、スプリアス相関を避けるのに有効である。
本稿では,セマンティックセグメンテーション,オブジェクト検出,画像キャプションといった視覚・視覚言語タスクにおける既存の因果法を総合的に検討することを目的とした。
因果関係の利点と因果関係のパラダイムを構築するためのアプローチを要約する。
今後のロードマップも提案され、因果理論の開発と他の複雑なシーンやシステムへの応用が促進される。
関連論文リスト
- Missed Causes and Ambiguous Effects: Counterfactuals Pose Challenges for Interpreting Neural Networks [14.407025310553225]
解釈可能性の研究は、当然のことながら因果関係の反事実理論を採っている。
反事実理論は、我々の発見を具体的かつ予測可能な方法でバイアスする問題を持っている。
本稿では,これらの課題が解釈可能性研究者に与える影響について論じる。
論文 参考訳(メタデータ) (2024-07-05T17:53:03Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Emergence and Causality in Complex Systems: A Survey on Causal Emergence
and Related Quantitative Studies [12.78006421209864]
因果発生理論は出現を定量化するために因果関係の尺度を用いる。
因果の出現を定量化し、データを識別する。
因果表現学習,因果モデル抽象化,世界モデルに基づく強化学習によって,因果表現の出現を識別するアーキテクチャが共有されることを強調した。
論文 参考訳(メタデータ) (2023-12-28T04:20:46Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Hierarchical Graph Neural Networks for Causal Discovery and Root Cause
Localization [52.72490784720227]
REASONはTopological Causal DiscoveryとPersonal Causal Discoveryで構成されている。
Topological Causal Discoveryコンポーネントは、根本原因を辿るために断層伝播をモデル化することを目的としている。
個々の因果発見コンポーネントは、単一のシステムエンティティの突然の変化パターンのキャプチャに重点を置いている。
論文 参考訳(メタデータ) (2023-02-03T20:17:45Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - To do or not to do: finding causal relations in smart homes [2.064612766965483]
本稿では,環境と観測データの混合実験から因果モデルを学ぶための新しい手法を提案する。
我々の手法の核心は、選択された介入の使用であり、特に、介入が不可能な変数を考慮に入れた学習である。
本手法をスマートホームシミュレーション,すなわち因果関係を知ることが説明可能なシステムへの道を開くユースケースに応用する。
論文 参考訳(メタデータ) (2021-05-20T22:36:04Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Towards Causal Representation Learning [96.110881654479]
機械学習とグラフィカル因果関係の2つの分野が生まれ、別々に発展した。
現在、他分野の進歩の恩恵を受けるために、クロスポリン化と両方の分野への関心が高まっている。
論文 参考訳(メタデータ) (2021-02-22T15:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。