論文の概要: CLEAR: Causal Learning Framework For Robust Histopathology Tumor Detection Under Out-Of-Distribution Shifts
- arxiv url: http://arxiv.org/abs/2510.14273v1
- Date: Thu, 16 Oct 2025 03:45:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.709836
- Title: CLEAR: Causal Learning Framework For Robust Histopathology Tumor Detection Under Out-Of-Distribution Shifts
- Title(参考訳): CLEAR:OF-distribution Shifts によるロバストな病理組織腫瘍検出のための因果学習フレームワーク
- Authors: Kieu-Anh Truong Thi, Huy-Hieu Pham, Duc-Trong Le,
- Abstract要約: 病理学におけるドメインシフトは、ディープラーニングモデルの一般化能力に大きな課題をもたらす。
本稿では,共同創設者の影響を緩和しつつ,意味的特徴を活用した因果推論に基づく新しいフレームワークを提案する。
我々はCAMELYON17データセットとプライベートな病理組織学データセットを用いて本手法の有効性を検証し,未確認領域における一貫した性能向上を実証した。
- 参考スコア(独自算出の注目度): 2.0327514588332996
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain shift in histopathology, often caused by differences in acquisition processes or data sources, poses a major challenge to the generalization ability of deep learning models. Existing methods primarily rely on modeling statistical correlations by aligning feature distributions or introducing statistical variation, yet they often overlook causal relationships. In this work, we propose a novel causal-inference-based framework that leverages semantic features while mitigating the impact of confounders. Our method implements the front-door principle by designing transformation strategies that explicitly incorporate mediators and observed tissue slides. We validate our method on the CAMELYON17 dataset and a private histopathology dataset, demonstrating consistent performance gains across unseen domains. As a result, our approach achieved up to a 7% improvement in both the CAMELYON17 dataset and the private histopathology dataset, outperforming existing baselines. These results highlight the potential of causal inference as a powerful tool for addressing domain shift in histopathology image analysis.
- Abstract(参考訳): 組織学におけるドメインシフトは、しばしば取得プロセスやデータソースの違いによって引き起こされるものであり、ディープラーニングモデルの一般化能力に対して大きな課題となる。
既存の手法は主に特徴分布の整列や統計的変動の導入による統計的相関のモデル化に頼っているが、因果関係を無視することが多い。
本研究では,共同創設者の影響を緩和しつつ,意味的特徴を活用した因果推論に基づく新しいフレームワークを提案する。
本手法は, メディエータと観察された組織スライドを明示的に組み込んだ変換戦略を設計することによって, フロントドアの原理を実装している。
我々はCAMELYON17データセットとプライベートな病理組織学データセットを用いて本手法の有効性を検証し,未確認領域における一貫した性能向上を実証した。
その結果,CAMELYON17データセットと私的病理組織学的データセットのいずれにおいても最大7%の改善が達成され,既存のベースラインを上回った。
これらの結果は、病理組織像解析における領域シフトに対処するための強力なツールとして、因果推論の可能性を強調している。
関連論文リスト
- Causal Debiasing Medical Multimodal Representation Learning with Missing Modalities [6.02318066285653]
現実の医療データセットは、コスト、プロトコル、患者固有の制約によって、しばしばモダリティの欠如に悩まされる。
本手法は,(1) バックドア調整に基づく因果介入を近似する欠如解離モジュール,(2) 因果関係から因果関係を明示的に解離する二重分岐ニューラルネットワークの2つの重要な構成要素から構成される。
論文 参考訳(メタデータ) (2025-09-06T06:27:10Z) - Identifying biological perturbation targets through causal differential networks [23.568795598997376]
本稿では,生物学的システムの変更に責任を持つ変数を同定する因果性に着想を得たアプローチを提案する。
まず、観測データと干渉データからノイズの多い因果グラフを推定する。
次に、これらのグラフ間の差分を、追加の統計的特徴とともに、介入された変数の集合にマッピングすることを学ぶ。
論文 参考訳(メタデータ) (2024-10-04T12:48:21Z) - Large-Scale Targeted Cause Discovery via Learning from Simulated Data [66.51307552703685]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータに基づいて教師あり学習を用いてニューラルネットワークを訓練し、因果関係を推定する。
大規模遺伝子制御ネットワークにおける因果関係の同定に優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Domain-invariant Clinical Representation Learning by Bridging Data Distribution Shift across EMR Datasets [28.59271580918754]
効果的な予後モデルは、医師が正確な診断を行い、パーソナライズされた治療計画を設計するのを助けることができる。
限られたデータ収集、不十分な臨床経験、プライバシと倫理上の懸念は、データの可用性を制限します。
本稿では,ソースとターゲットデータセット間の遷移モデルを構築するドメイン不変表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T18:32:21Z) - Causal Inference via Nonlinear Variable Decorrelation for Healthcare
Applications [60.26261850082012]
線形および非線形共振の両方を扱う可変デコリレーション正規化器を用いた新しい手法を提案する。
我々は、モデル解釈可能性を高めるために、元の特徴に基づくアソシエーションルールマイニングを用いた新しい表現として、アソシエーションルールを採用する。
論文 参考訳(メタデータ) (2022-09-29T17:44:14Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。