論文の概要: Causal Representation Learning with Observational Grouping for CXR Classification
- arxiv url: http://arxiv.org/abs/2506.20582v1
- Date: Wed, 25 Jun 2025 16:17:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.839745
- Title: Causal Representation Learning with Observational Grouping for CXR Classification
- Title(参考訳): CXR分類のための観測グループ化による因果表現学習
- Authors: Rajat Rasal, Avinash Kori, Ben Glocker,
- Abstract要約: 因果表現学習は、データ生成プロセスの根底にある真の因果関係を明らかにする。
本研究は,胸部X線診断における病因分類のための識別可能な表現をエンドツーエンドの枠組みで学習するためのグループ化観測の概念を紹介する。
- 参考スコア(独自算出の注目度): 17.11125452239702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifiable causal representation learning seeks to uncover the true causal relationships underlying a data generation process. In medical imaging, this presents opportunities to improve the generalisability and robustness of task-specific latent features. This work introduces the concept of grouping observations to learn identifiable representations for disease classification in chest X-rays via an end-to-end framework. Our experiments demonstrate that these causal representations improve generalisability and robustness across multiple classification tasks when grouping is used to enforce invariance w.r.t race, sex, and imaging views.
- Abstract(参考訳): 因果表現学習は、データ生成プロセスの根底にある真の因果関係を明らかにする。
医用画像では、タスク固有の潜伏特徴の一般性や堅牢性を改善する機会が提示される。
本研究は,胸部X線診断における病因分類のための識別可能な表現をエンドツーエンドの枠組みで学習するためのグループ化観測の概念を紹介する。
実験により,これらの因果表現は,人種,性別,イメージビューの不変性を強制するためにグループ化を用いる場合,複数の分類タスクにおける一般化可能性や堅牢性を向上させることが示された。
関連論文リスト
- Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Inducing Causal Structure for Abstractive Text Summarization [76.1000380429553]
要約データの因果構造を誘導する構造因果モデル(SCM)を導入する。
本稿では因果的要因を模倣できる因果的表現を学習するための因果性インスピレーション付き系列列列モデル(CI-Seq2Seq)を提案する。
2つの広く使われているテキスト要約データセットの実験結果は、我々のアプローチの利点を示している。
論文 参考訳(メタデータ) (2023-08-24T16:06:36Z) - The Role of Subgroup Separability in Group-Fair Medical Image
Classification [18.29079361470428]
診断などの系統的バイアスを伴うデータを用いて, サブグループ分離性, サブグループ分離性, 性能劣化の関係について検討した。
私たちの発見は、モデルがどのように偏見を抱くかという問題に新たな光を当て、公正な医療画像AIの開発に重要な洞察を与えました。
論文 参考訳(メタデータ) (2023-07-06T06:06:47Z) - Visualizing chest X-ray dataset biases using GANs [8.61315908717562]
近年の研究では、様々な胸部X線データセットの画像には、人種や性別といった保護された人口特性と強く相関する視覚的特徴が含まれていることが示されている。
これらの要因のいくつかは、臨床予測のために下流アルゴリズムによって利用される可能性があるため、この発見は公正性の問題を提起する。
本研究では,2つの層群に属するX線に最も異なる特徴を可視化するために,GAN(Generative Adversarial Network)を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T01:39:08Z) - Learning disentangled representations for explainable chest X-ray
classification using Dirichlet VAEs [68.73427163074015]
本研究では,胸部X線像の非絡み合った潜在表現の学習にDirVAE(Dirichlet Variational Autoencoder)を用いることを検討した。
DirVAEモデルにより学習された多モード潜在表現の予測能力について,補助的多ラベル分類タスクの実装により検討した。
論文 参考訳(メタデータ) (2023-02-06T18:10:08Z) - Generalizable Information Theoretic Causal Representation [37.54158138447033]
本稿では,観測データから因果表現を学習するために,仮説因果グラフに基づいて相互情報量で学習手順を規則化することを提案する。
この最適化は、因果性に着想を得た学習がサンプルの複雑さを減らし、一般化能力を向上させるという理論的保証を導出する反ファクト的損失を伴う。
論文 参考訳(メタデータ) (2022-02-17T00:38:35Z) - Typing assumptions improve identification in causal discovery [123.06886784834471]
観測データからの因果発見は、正確な解を常に特定できない難しい課題である。
そこで本研究では,変数の性質に基づいた因果関係を制約する仮説を新たに提案する。
論文 参考訳(メタデータ) (2021-07-22T14:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。