論文の概要: Counterfactual Modeling with Fine-Tuned LLMs for Health Intervention Design and Sensor Data Augmentation
- arxiv url: http://arxiv.org/abs/2601.14590v1
- Date: Wed, 21 Jan 2026 02:04:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.20651
- Title: Counterfactual Modeling with Fine-Tuned LLMs for Health Intervention Design and Sensor Data Augmentation
- Title(参考訳): 医療介入設計とセンサデータ拡張のための微調整LDMによる対物モデリング
- Authors: Shovito Barua Soumma, Asiful Arefeen, Stephanie M. Carpenter, Melanie Hingle, Hassan Ghasemzadeh,
- Abstract要約: 対実的説明(CFE)は、機械学習モデルの予測を変更するのに必要な最小限の実行可能な変更を特定することによって、人間中心の解釈可能性を提供する。
大規模言語モデル(LLM)を用いたCF生成の包括的評価を行う。
我々は、介入品質、特徴多様性、強化効果の3次元にわたるCFを評価した。
- 参考スコア(独自算出の注目度): 2.6532805035238742
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Counterfactual explanations (CFEs) provide human-centric interpretability by identifying the minimal, actionable changes required to alter a machine learning model's prediction. Therefore, CFs can be used as (i) interventions for abnormality prevention and (ii) augmented data for training robust models. We conduct a comprehensive evaluation of CF generation using large language models (LLMs), including GPT-4 (zero-shot and few-shot) and two open-source models-BioMistral-7B and LLaMA-3.1-8B, in both pretrained and fine-tuned configurations. Using the multimodal AI-READI clinical dataset, we assess CFs across three dimensions: intervention quality, feature diversity, and augmentation effectiveness. Fine-tuned LLMs, particularly LLaMA-3.1-8B, produce CFs with high plausibility (up to 99%), strong validity (up to 0.99), and realistic, behaviorally modifiable feature adjustments. When used for data augmentation under controlled label-scarcity settings, LLM-generated CFs substantially restore classifier performance, yielding an average 20% F1 recovery across three scarcity scenarios. Compared with optimization-based baselines such as DiCE, CFNOW, and NICE, LLMs offer a flexible, model-agnostic approach that generates more clinically actionable and semantically coherent counterfactuals. Overall, this work demonstrates the promise of LLM-driven counterfactuals for both interpretable intervention design and data-efficient model training in sensor-based digital health. Impact: SenseCF fine-tunes an LLM to generate valid, representative counterfactual explanations and supplement minority class in an imbalanced dataset for improving model training and boosting model robustness and predictive performance
- Abstract(参考訳): 対実的説明(CFE)は、機械学習モデルの予測を変更するのに必要な最小限の実行可能な変更を特定することによって、人間中心の解釈可能性を提供する。
したがって CF は CF として使用することができる。
一 異常予防及び介入
(ii)ロバストモデルのトレーニングのための拡張データ。
GPT-4 (zero-shot and few-shot)とBioMistral-7BとLLaMA-3.1-8Bの2つのオープンソースモデルを含む,大規模言語モデル(LLM)によるCF生成の包括的評価を行う。
マルチモーダルAI-READI臨床データセットを用いて、介入品質、特徴多様性、拡張効率の3次元にわたるCFを評価する。
微調整されたLCM、特にLLaMA-3.1-8Bは、高い可視性(99%まで)、強い妥当性(最大0.99まで)、リアルで行動的に変更可能な特徴調整を備えたCFを生成する。
制御されたラベル・スカシティ設定でデータ拡張に使用すると、LCM生成のCFは分類器の性能を著しく回復し、3つの不足シナリオで平均20%のF1リカバリが得られる。
DiCE、CFNOW、NICEなどの最適化ベースのベースラインと比較すると、LLMはより臨床的に作用し、セマンティックに一貫性のある対物を生成する柔軟なモデルに依存しないアプローチを提供する。
全体として、この研究は、センサーベースのデジタルヘルスにおける解釈可能な介入設計とデータ効率のモデルトレーニングの両方に対するLLM駆動のカウンターファクトファクトの可能性を実証している。
インパクト: SenseCFはモデルトレーニングの改善とモデルロバスト性の向上と予測性能向上のための不均衡データセットにおいて、有効で代表的反実的説明を生成し、マイノリティクラスを補完するためにLLMを微調整する。
関連論文リスト
- Intervention Efficiency and Perturbation Validation Framework: Capacity-Aware and Robust Clinical Model Selection under the Rashomon Effect [8.16102315566872]
同等のパフォーマンスを持つ複数のモデルの共存は、信頼できるデプロイメントと評価に根本的な課題をもたらします。
我々は,頑健なモデルアセスメントと選択のための2つの補完的ツールを提案する: 介入効率(IE)と摂動検証フレームワーク(PVF)。
IEはキャパシティを意識したメトリクスであり、限られた介入しか実現できない場合、モデルが実行可能な真の正をいかに効率的に識別するかを定量化する。
PVFは、データ摂動下でのモデルの安定性を評価するための構造化されたアプローチを導入し、ノイズやシフトした検証セット間で性能が最も不変なモデルを特定する。
論文 参考訳(メタデータ) (2025-11-18T10:21:07Z) - SenseCF: LLM-Prompted Counterfactuals for Intervention and Sensor Data Augmentation [2.6532805035238742]
対実的説明(CF)は、結果を変えるために必要な最小限の変更を強調することによって、機械学習の予測に対する人間中心の洞察を提供する。
本研究では,大規模言語モデル,特にGPT-4o-miniについて,ゼロショットおよび3ショット設定でCFを生成する方法について検討する。
ストレス予測のためのAI-Readiフラッグシップデータセットと、心臓病検出のためのパブリックデータセットの2つのデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2025-07-07T23:45:40Z) - Benchmarking Foundation Models and Parameter-Efficient Fine-Tuning for Prognosis Prediction in Medical Imaging [40.35825564674249]
本研究では,基礎モデルにおける伝達学習戦略の堅牢性と効率性を評価するための最初の構造化されたベンチマークを紹介する。
新型コロナウイルス(COVID-19)の胸部X線データセットが4つ使用されており、死亡率、重症度、入院率をカバーしている。
一般またはバイオメディカルデータセットで事前訓練されたImageNetとFMで事前訓練されたCNNは、完全な微調整、線形探索、パラメータ効率のよい手法を用いて適応された。
論文 参考訳(メタデータ) (2025-06-23T09:16:04Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - CATfOOD: Counterfactual Augmented Training for Improving Out-of-Domain
Performance and Calibration [59.48235003469116]
データの増大はOOD性能を継続的に向上させることを示す。
また, CF拡張モデルのキャリブレーションが容易な場合, 重要度を割り当てる場合, エントロピーがはるかに低いことを示す。
論文 参考訳(メタデータ) (2023-09-14T16:16:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。