論文の概要: SenseCF: LLM-Prompted Counterfactuals for Intervention and Sensor Data Augmentation
- arxiv url: http://arxiv.org/abs/2507.05541v1
- Date: Mon, 07 Jul 2025 23:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.45398
- Title: SenseCF: LLM-Prompted Counterfactuals for Intervention and Sensor Data Augmentation
- Title(参考訳): SenseCF: インターベンションとセンサデータ拡張のためのLLMが推進する対策
- Authors: Shovito Barua Soumma, Asiful Arefeen, Stephanie M. Carpenter, Melanie Hingle, Hassan Ghasemzadeh,
- Abstract要約: 対実的説明(CF)は、結果を変えるために必要な最小限の変更を強調することによって、機械学習の予測に対する人間中心の洞察を提供する。
本研究では,大規模言語モデル,特にGPT-4o-miniについて,ゼロショットおよび3ショット設定でCFを生成する方法について検討する。
ストレス予測のためのAI-Readiフラッグシップデータセットと、心臓病検出のためのパブリックデータセットの2つのデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 6.466206145151128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Counterfactual explanations (CFs) offer human-centric insights into machine learning predictions by highlighting minimal changes required to alter an outcome. Therefore, CFs can be used as (i) interventions for abnormality prevention and (ii) augmented data for training robust models. In this work, we explore large language models (LLMs), specifically GPT-4o-mini, for generating CFs in a zero-shot and three-shot setting. We evaluate our approach on two datasets: the AI-Readi flagship dataset for stress prediction and a public dataset for heart disease detection. Compared to traditional methods such as DiCE, CFNOW, and NICE, our few-shot LLM-based approach achieves high plausibility (up to 99%), strong validity (up to 0.99), and competitive sparsity. Moreover, using LLM-generated CFs as augmented samples improves downstream classifier performance (an average accuracy gain of 5%), especially in low-data regimes. This demonstrates the potential of prompt-based generative techniques to enhance explainability and robustness in clinical and physiological prediction tasks. Code base: github.com/anonymous/SenseCF.
- Abstract(参考訳): 対実的説明(CF)は、結果を変えるために必要な最小限の変更を強調することによって、機械学習の予測に対する人間中心の洞察を提供する。
したがって CF は CF として使用することができる。
一 異常予防及び介入
(ii)ロバストモデルのトレーニングのための拡張データ。
本研究では,大規模言語モデル,特にGPT-4o-miniについて,ゼロショットおよび3ショット設定でCFを生成する方法について検討する。
ストレス予測のためのAI-Readiフラッグシップデータセットと、心臓病検出のためのパブリックデータセットの2つのデータセットに対するアプローチを評価した。
DiCEやCFNOW、NICEといった従来の手法と比較すると、LLMベースのアプローチは高い妥当性(最大99%)、強い妥当性(最大0.99)、競争の激しさを実現しています。
さらに,LLM生成CFを付加試料として使用することにより,ダウンストリーム分類器の性能(平均精度5%向上)が向上する。
このことは、臨床および生理学的予測タスクにおける説明可能性と堅牢性を高めるために、プロンプトベースの生成技術の可能性を示す。
コードベース:github.com/anonymous/SenseCF。
関連論文リスト
- Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - Electroencephalogram Emotion Recognition via AUC Maximization [0.0]
不均衡データセットは神経科学、認知科学、医学診断などの分野で大きな課題を提起する。
本研究は,DEAPデータセットにおけるライキングラベルを例として,イシュークラスの不均衡に対処する。
論文 参考訳(メタデータ) (2024-08-16T19:08:27Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - LLMs for Generating and Evaluating Counterfactuals: A Comprehensive Study [2.7731115923558143]
大規模言語モデル (LLM) は, NLP タスクにおいて顕著な性能を示したが, 高品質な対実数 (CF) の生成における有効性はいまだ不明である。
我々は、いくつかの共通LCMを比較し、そのCFを評価し、本質的なメトリクスとこれらのCFがデータ拡張に与える影響を評価した。
その結果, LLMは流動性CFを生成するが, 誘導される変化を最小限に抑えるのに苦慮していることがわかった。
論文 参考訳(メタデータ) (2024-04-26T11:57:21Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Improving Clinical Decision Support through Interpretable Machine Learning and Error Handling in Electronic Health Records [6.594072648536156]
Trust-MAPSは、臨床領域の知識を高次元の混合整数プログラミングモデルに変換する。
信頼スコアは、臨床決定支援タスクの予測性能を高めるだけでなく、MLモデルに解釈可能性を与える臨床的に有意義な特徴として出現する。
論文 参考訳(メタデータ) (2023-08-21T15:14:49Z) - Efficient Data-specific Model Search for Collaborative Filtering [56.60519991956558]
協調フィルタリング(CF)はレコメンダシステムの基本的なアプローチである。
本稿では,機械学習(AutoML)の最近の進歩を動機として,データ固有のCFモデルを設計することを提案する。
ここでキーとなるのは、最先端(SOTA)のCFメソッドを統一し、それらを入力エンコーディング、埋め込み関数、インタラクション、予測関数の非結合ステージに分割する新しいフレームワークである。
論文 参考訳(メタデータ) (2021-06-14T14:30:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。