論文の概要: Bridging the Generalisation Gap: Synthetic Data Generation for Multi-Site Clinical Model Validation
- arxiv url: http://arxiv.org/abs/2504.20635v1
- Date: Tue, 29 Apr 2025 11:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.856246
- Title: Bridging the Generalisation Gap: Synthetic Data Generation for Multi-Site Clinical Model Validation
- Title(参考訳): 一般化ギャップのブリッジ:多段階臨床モデル検証のための合成データ生成
- Authors: Bradley Segal, Joshua Fieggen, David Clifton, Lei Clifton,
- Abstract要約: 既存のモデル評価アプローチは、可用性に制限のある実世界のデータセットに頼っていることが多い。
本稿では, ベンチマークモデル, 公正性, 一般化性の制御されたロバスト性を考慮した, 構造化された合成データフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.3362278589492841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring the generalisability of clinical machine learning (ML) models across diverse healthcare settings remains a significant challenge due to variability in patient demographics, disease prevalence, and institutional practices. Existing model evaluation approaches often rely on real-world datasets, which are limited in availability, embed confounding biases, and lack the flexibility needed for systematic experimentation. Furthermore, while generative models aim for statistical realism, they often lack transparency and explicit control over factors driving distributional shifts. In this work, we propose a novel structured synthetic data framework designed for the controlled benchmarking of model robustness, fairness, and generalisability. Unlike approaches focused solely on mimicking observed data, our framework provides explicit control over the data generating process, including site-specific prevalence variations, hierarchical subgroup effects, and structured feature interactions. This enables targeted investigation into how models respond to specific distributional shifts and potential biases. Through controlled experiments, we demonstrate the framework's ability to isolate the impact of site variations, support fairness-aware audits, and reveal generalisation failures, particularly highlighting how model complexity interacts with site-specific effects. This work contributes a reproducible, interpretable, and configurable tool designed to advance the reliable deployment of ML in clinical settings.
- Abstract(参考訳): 多様な医療環境における臨床機械学習(ML)モデルの一般的な可能性を保証することは、患者の人口動態、病気の流行、制度的な実践の変動によって、依然として大きな課題である。
既存のモデル評価アプローチは、可用性に制限がある実世界のデータセットに頼り、矛盾するバイアスを埋め込み、体系的な実験に必要な柔軟性を欠いていることが多い。
さらに、生成モデルは統計リアリズムを目標としているが、しばしば、分布シフトを駆動する要因に対する透明性と明示的な制御が欠如している。
本研究では,モデルロバスト性,公正性,汎用性の制御されたベンチマークのために設計された,構造化された合成データフレームワークを提案する。
観測データにのみ焦点をあてたアプローチとは異なり、我々のフレームワークは、サイト固有の頻度変動、階層的なサブグループ効果、構造化された特徴相互作用を含む、データ生成プロセスの明示的な制御を提供する。
これにより、モデルが特定の分布シフトや潜在的なバイアスにどのように反応するかを対象とする調査が可能になる。
制御された実験を通じて、このフレームワークは、サイトの変化の影響を分離し、公正を意識した監査をサポートし、一般化の失敗を明らかにし、特に、モデルの複雑さがサイト固有の効果とどのように相互作用するかを明らかにする。
この研究は、臨床環境におけるMLの信頼性の高い展開を促進するために設計された再現性、解釈性、および設定可能なツールに寄与する。
関連論文リスト
- Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - GenBench: A Benchmarking Suite for Systematic Evaluation of Genomic Foundation Models [56.63218531256961]
我々はGenomic Foundation Modelsの有効性を評価するためのベンチマークスイートであるGenBenchを紹介する。
GenBenchはモジュラーで拡張可能なフレームワークを提供し、様々な最先端の方法論をカプセル化している。
本稿では,タスク固有性能におけるモデルアーキテクチャとデータセット特性の相互作用のニュアンス解析を行う。
論文 参考訳(メタデータ) (2024-06-01T08:01:05Z) - Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - Principles from Clinical Research for NLP Model Generalization [10.985226652193543]
一般化可能性の基礎を探求し、それに影響を与える要因について検討する。
関係抽出タスクにおけるエンティティ間の距離などの学習がモデルの内部妥当性にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-11-07T02:17:25Z) - Out of Distribution Generalization via Interventional Style Transfer in
Single-Cell Microscopy [1.7778546320705952]
コンピュータビジョンシステムの現実的な展開には、文脈的ニュアンスに不変な因果表現が必要である。
我々は,OOD一般化の難易度が高まる中で,モデルが因果表現を学習する程度を評価するテストを提案する。
他の確立された指標によって評価されるように、一見強靭なパフォーマンスにもかかわらず、これらのテストでは、悪質なベースラインと現代的なベースラインの両方が、相反することを防ぐために設計されている。
論文 参考訳(メタデータ) (2023-06-15T20:08:16Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - A Differentially Private Probabilistic Framework for Modeling the
Variability Across Federated Datasets of Heterogeneous Multi-View
Observations [4.511923587827301]
我々のフレームワークは、潜在マスターの分布とクライアントのパラメータよりも期待(EM)によって効果的に最適化できることを示す。
アルツハイマー病に罹患した患者の臨床データから, マルチモーダル・メディカル・イメージング・データの解析と臨床成績について検討した。
論文 参考訳(メタデータ) (2022-04-15T07:20:47Z) - How Faithful is your Synthetic Data? Sample-level Metrics for Evaluating
and Auditing Generative Models [95.8037674226622]
ドメインに依存しない方法で生成モデルの忠実度,多様性,一般化性能を特徴付ける3次元評価指標を提案する。
当社のメトリクスは、精度リコール分析により統計的発散測定を統合し、モデル忠実度と多様性のサンプルおよび分布レベルの診断を可能にします。
論文 参考訳(メタデータ) (2021-02-17T18:25:30Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Estimating the Effects of Continuous-valued Interventions using
Generative Adversarial Networks [103.14809802212535]
我々は,連続的評価介入の効果を推定する問題に対処するため,GAN(Generative Adversarial Network)フレームワークを構築した。
我々のモデルであるSCIGANは柔軟であり、いくつかの異なる継続的な介入に対する対実的な結果の同時推定が可能である。
継続的な介入に移行することによって生じる課題に対処するために、差別者のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T18:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。