論文の概要: Mind the data gap: Missingness Still Shapes Large Language Model Prognoses
- arxiv url: http://arxiv.org/abs/2512.00479v1
- Date: Sat, 29 Nov 2025 13:24:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.258038
- Title: Mind the data gap: Missingness Still Shapes Large Language Model Prognoses
- Title(参考訳): データギャップを忘れる - 不足はいまだに大規模言語モデルの証明を形作る
- Authors: Yuta Kobayashi, Vincent Jeanselme, Shalmali Joshi,
- Abstract要約: 欠落の有益性に関する文献が多数報告されているが、その大規模言語モデルの性能への影響は研究されていない。
欠落パターンがゼロショット予測性能に著しく影響を及ぼすことを示す。
より透明な会計と体系的な評価の必要性が下流性能に与える影響について考察する。
- 参考スコア(独自算出の注目度): 4.263225092704034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data collection often reflects human decisions. In healthcare, for instance, a referral for a diagnostic test is influenced by the patient's health, their preferences, available resources, and the practitioner's recommendations. Despite the extensive literature on the informativeness of missingness, its implications on the performance of Large Language Models (LLMs) have not been studied. Through a series of experiments on data from Columbia University Medical Center, a large urban academic medical center, and MIMIC-IV, we demonstrate that patterns of missingness significantly impact zero-shot predictive performance. Notably, the explicit inclusion of missingness indicators at prompting benefits some while hurting other LLMs' zero-shot predictive performance and calibration, suggesting an inconsistent impact. The proposed aggregated analysis and theoretical insights suggest that larger models benefit from these interventions, while smaller models can be negatively impacted. The LLM paradigm risks obscuring the impact of missingness, often neglected even in conventional ML, even further. We conclude that there is a need for more transparent accounting and systematic evaluation of the impact of representing (informative) missingness on downstream performance.
- Abstract(参考訳): データ収集は、しばしば人間の決定を反映する。
例えば、医療においては、診断検査の基準は患者の健康、患者の好み、利用可能なリソース、実践者の推薦に影響される。
不足の情報性に関する文献が豊富にあるにもかかわらず、Large Language Models (LLMs) の性能への影響は研究されていない。
コロンビア大学医療センター、大都市大学医療センター、MIMIC-IVのデータに関する一連の実験を通じて、欠損のパターンがゼロショット予測性能に大きな影響を及ぼすことを示した。
特に、他のLLMのゼロショット予測性能とキャリブレーションを損なう一方で、いくつかの利点を促すための不足指標の明示的な含意は、矛盾した影響を示唆している。
提案された集約分析と理論的洞察は、より大きなモデルがこれらの介入の恩恵を受ける一方で、より小さなモデルは負の影響を受ける可能性があることを示唆している。
LLMパラダイムは、従来のMLでも無視されることが多く、欠落の影響を隠蔽する危険性がある。
より透明な会計と体系的な評価が必要であり、下流のパフォーマンスに(情報的でない)欠如が与える影響について考察する。
関連論文リスト
- Spurious Correlations and Beyond: Understanding and Mitigating Shortcut Learning in SDOH Extraction with Large Language Models [3.3408746880885003]
大型言語モデル (LLM) は将来性を示しているが、表面的な手がかりに依存して、急激な予測を導いている。
アルコールや喫煙の言及は、誰もいない現在および過去における薬物使用を予測するために、モデルに誤った誘導を与える可能性があることを実証する。
我々は、これらの偽陽性を減らすために、迅速なエンジニアリングや連鎖推論などの緩和戦略を評価する。
論文 参考訳(メタデータ) (2025-05-30T18:11:33Z) - Impact of Missing Values in Machine Learning: A Comprehensive Analysis [0.0]
本稿では,機械学習(ML)モデルにおける欠落値の影響について検討する。
分析では、バイアス付き推論、予測能力の低下、計算負荷の増大など、欠落した値による課題に焦点を当てた。
この研究は、欠落した値に対処する実践的な意味を説明するためにケーススタディと実例を用いている。
論文 参考訳(メタデータ) (2024-10-10T18:31:44Z) - VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large Vision-Language Models [57.43276586087863]
LVLM(Large Vision-Language Models)は幻覚に悩まされ、このモデルでは可聴音を発生させるが、実際には誤出力を発生させる。
既存のベンチマークはスコープに限られており、主にオブジェクト幻覚に焦点を当てている。
対象,属性,関係を多次元のベンチマークで表現し,連想バイアスに基づいて画像を選択する。
論文 参考訳(メタデータ) (2024-04-22T04:49:22Z) - Oversampling Higher-Performing Minorities During Machine Learning Model
Training Reduces Adverse Impact Slightly but Also Reduces Model Accuracy [18.849426971487077]
トレーニングデータにおける有害影響率を操作するために,少数者(黒人およびヒスパニック系)を体系的に過小評価し,過大評価した。
その結果,トレーニングデータによる影響は,MLモデルの悪影響と線形に関連していることがわかった。
本研究は, 自己申告書と面接書にまたがる一貫した効果を観察し, 実測, 合成観察をオーバーサンプリングした。
論文 参考訳(メタデータ) (2023-04-27T02:53:29Z) - Evaluating the Fairness of Deep Learning Uncertainty Estimates in
Medical Image Analysis [3.5536769591744557]
深層学習(DL)モデルは多くの医療画像解析タスクで大きな成功を収めている。
しかし、結果として得られたモデルを実際の臨床状況に展開するには、異なるサブ集団間での堅牢性と公平性が必要である。
近年の研究では、人口統計学的サブグループにまたがるDLモデルに有意なバイアスが見られ、モデルに公平性が欠如していることが示されている。
論文 参考訳(メタデータ) (2023-03-06T16:01:30Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Transductive image segmentation: Self-training and effect of uncertainty
estimation [16.609998086075127]
半教師付き学習(SSL)は、トレーニング中にラベルのないデータを使用して、より良いモデルを学ぶ。
本研究は、一般化を改善するのではなく、訓練中の最適化に含める際に、未ラベルデータに基づく予測の質に焦点をあてる。
外傷性脳病変のマルチクラスセグメンテーションのための大規模なMRIデータベースを用いた実験は,インダクティブ予測とトランスダクティブ予測との比較において有望な結果を示した。
論文 参考訳(メタデータ) (2021-07-19T15:26:07Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。