論文の概要: A Survey on Causal Representation Learning and Future Work for Medical
Image Analysis
- arxiv url: http://arxiv.org/abs/2210.16034v1
- Date: Fri, 28 Oct 2022 10:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 16:23:56.355449
- Title: A Survey on Causal Representation Learning and Future Work for Medical
Image Analysis
- Title(参考訳): 医学画像解析における因果表現学習の実態と今後の課題
- Authors: Changjie Lu
- Abstract要約: 因果表現学習は近年,視覚理解における因果関係問題に対処するための有望な方向である。
本調査は、視界におけるCRLの最近の進歩を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Statistical machine learning algorithms have achieved state-of-the-art
results on benchmark datasets, outperforming humans in many tasks. However, the
out-of-distribution data and confounder, which have an unpredictable causal
relationship, significantly degrade the performance of the existing models.
Causal Representation Learning (CRL) has recently been a promising direction to
address the causal relationship problem in vision understanding. This survey
presents recent advances in CRL in vision. Firstly, we introduce the basic
concept of causal inference. Secondly, we analyze the CRL theoretical work,
especially in invariant risk minimization, and the practical work in feature
understanding and transfer learning. Finally, we propose a future research
direction in medical image analysis and CRL general theory.
- Abstract(参考訳): 統計的機械学習アルゴリズムは、ベンチマークデータセットで最先端の結果を達成し、多くのタスクで人間を上回っています。
しかし、予測不能な因果関係を持つアウトオブディストリビューションデータと共同創設者は、既存のモデルのパフォーマンスを著しく低下させる。
近年,視覚理解における因果関係問題に対処するために,因果表現学習(CRL)が期待されている。
本調査は,視覚におけるCRLの最近の進歩を示す。
まず,因果推論の基本的な概念を紹介する。
第2に,CRL理論,特に不変リスク最小化の成果と特徴理解と伝達学習の実践的成果を分析した。
最後に,医用画像解析とCRL一般理論の今後の研究方向性を提案する。
関連論文リスト
- Understanding Forgetting in Continual Learning with Linear Regression [21.8755265936716]
連続的な学習は、複数のタスクを逐次学習することに焦点を当てており、近年大きな注目を集めている。
線形回帰モデルにおいて, 線形回帰モデルをグラディエント・ディッセンス(Gradient Descent)を用いて, 忘れることの一般的な理論的解析を行う。
十分なデータサイズを考慮に入れれば、集団データ共分散行列の固有値が大きいタスクが後で訓練されるようなシーケンス内のタスクの配置は、忘れが増す傾向にあることを実証する。
論文 参考訳(メタデータ) (2024-05-27T18:33:37Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - A Survey on Causal Reinforcement Learning [41.645270300009436]
本稿では、CRL(Causal Reinforcement Learning)の作業のレビュー、CRL手法のレビュー、RLへの因果性から潜在的な機能について検討する。
特に,既存のCRLアプローチを,因果関係に基づく情報が事前に与えられるか否かに応じて2つのカテゴリに分けた。
我々は、マルコフ決定プロセス(MDP)、部分観測マルコフ決定プロセス(POMDP)、マルチアーム帯域(MAB)、動的治療レジーム(DTR)など、様々なモデルの形式化の観点から、各カテゴリを解析する。
論文 参考訳(メタデータ) (2023-02-10T12:25:08Z) - Disentangled Representation Learning [46.51815065323667]
Disentangled Representation Learning (DRL) は、観測可能なデータに隠された基礎的要因を表現形式で識別し、切り離すことができるモデルを学習することを目的としている。
我々は、モチベーション、定義、方法論、評価、応用、モデル設計を含む様々な側面からDRLを包括的に調査する。
論文 参考訳(メタデータ) (2022-11-21T18:14:38Z) - Generalizing Goal-Conditioned Reinforcement Learning with Variational
Causal Reasoning [24.09547181095033]
Causal Graphは、オブジェクトとイベントの関係に基づいて構築された構造である。
2つのステップを交互に行う理論性能保証フレームワークを提案する。
我々の業績改善は因果発見、遷移モデリング、政策トレーニングの活発なサイクルに起因する。
論文 参考訳(メタデータ) (2022-07-19T05:31:16Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Uncovering the Data-Related Limits of Human Reasoning Research: An
Analysis based on Recommender Systems [1.7478203318226309]
認知科学は、理論駆動の観点から人間のような知性をモデル化する目的を追求している。
ソロジック推論は人間の推論研究のコアドメインの1つである。
最近のモデルの性能予測の結果、改善の停滞が明らかになった。
論文 参考訳(メタデータ) (2020-03-11T10:12:35Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。