論文の概要: MMSE-Calibrated Few-Shot Prompting for Alzheimer's Detection
- arxiv url: http://arxiv.org/abs/2509.19926v1
- Date: Wed, 24 Sep 2025 09:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.75626
- Title: MMSE-Calibrated Few-Shot Prompting for Alzheimer's Detection
- Title(参考訳): MMSE-Calibated Few-Shot Promptingによるアルツハイマー検出
- Authors: Jana Sweidan, Mounim A. El-Yacoubi, Nasredine Semmar,
- Abstract要約: 本研究では,Nested Interleaveと厳密なスキーマを用いたクラスバランスプロトコルによる数発のプロンプトについて検討する。
我々は、最先端のプロンプト結果を達成する2つの変種を評価する。
これは、MMSEに誘引された確率を固定し、多モード構造を用いて解釈性を改善するためのADReSS研究としては初めてのものである。
- 参考スコア(独自算出の注目度): 4.176236534741941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompting large language models is a training-free method for detecting Alzheimer's disease from speech transcripts. Using the ADReSS dataset, we revisit zero-shot prompting and study few-shot prompting with a class-balanced protocol using nested interleave and a strict schema, sweeping up to 20 examples per class. We evaluate two variants achieving state-of-the-art prompting results. (i) MMSE-Proxy Prompting: each few-shot example carries a probability anchored to Mini-Mental State Examination bands via a deterministic mapping, enabling AUC computing; this reaches 0.82 accuracy and 0.86 AUC (ii) Reasoning-augmented Prompting: few-shot examples pool is generated with a multimodal LLM (GPT-5) that takes as input the Cookie Theft image, transcript, and MMSE to output a reasoning and MMSE-aligned probability; evaluation remains transcript-only and reaches 0.82 accuracy and 0.83 AUC. To our knowledge, this is the first ADReSS study to anchor elicited probabilities to MMSE and to use multimodal construction to improve interpretability.
- Abstract(参考訳): Prompting large language modelは、音声の転写からアルツハイマー病を検出する訓練のない方法である。
ADReSSデータセットを使用してゼロショットプロンプトを再検討し、ネストしたインターリーブと厳密なスキーマを使用してクラスバランスのプロトコルを使用して、クラス毎に最大20のサンプルを検索する。
我々は、最先端のプロンプト結果を達成する2つの変種を評価する。
(i)MMSE-Proxy Prompting:各数ショットの例は、決定論的マッピングによってミニ・メンタル・ステート・テスト・バンドに固定された確率を持ち、AUCコンピューティングを可能にし、精度は0.82、AUCは0.86に達する。
(ii)推論とMMSE整合確率を出力するために、Cookie Theft画像、トランスクリプト、MMSEを入力とするマルチモーダルLCM(GPT-5)を用いて、少数ショット例プールを生成する。
我々の知る限り、これはMMSEに誘引された確率を固定し、多モード構造を用いて解釈性を向上させるためのADReSS研究としては初めてのものである。
関連論文リスト
- SPARC: Score Prompting and Adaptive Fusion for Zero-Shot Multi-Label Recognition in Vision-Language Models [74.40683913645731]
Zero-shot Multi-label Recognition (MLR) with Vision-Language Models (VLMs) は、トレーニングデータ、モデルチューニング、アーキテクチャの変更なしに重要な課題に直面している。
我々の研究は、VLMをブラックボックスとして扱い、トレーニングデータや地上の真実を使わずにスコアを活用する新しいソリューションを提案する。
これらのプロンプトスコアの分析により、VLMバイアスとAND'/OR信号の曖昧さが明らかになり、特に、最高スコアは2番目に高いスコアに比べて驚くほど低い。
論文 参考訳(メタデータ) (2025-02-24T07:15:05Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Masked Language Model Based Textual Adversarial Example Detection [14.734863175424797]
アドリアックは、安全クリティカルなアプリケーションにおける機械学習モデルの信頼性の高いデプロイに対する深刻な脅威である。
本稿では,MLMD(Masked Model-based Detection)という新たなテキスト対逆例検出手法を提案する。
論文 参考訳(メタデータ) (2023-04-18T06:52:14Z) - DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability
Curvature [143.5381108333212]
大規模な言語モデルからサンプリングされたテキストは、モデルのログ確率関数の負の曲率領域を占有する傾向にあることを示す。
次に、与えられたLLMから通路が生成されるかどうかを判断するための新しい曲率ベースの基準を定義する。
我々は、モデルサンプル検出のための既存のゼロショット法よりもディテクターGPTの方が識別性が高いことを発見した。
論文 参考訳(メタデータ) (2023-01-26T18:44:06Z) - CADet: Fully Self-Supervised Out-Of-Distribution Detection With Contrastive Learning [10.876763955414576]
本研究は,2種類のOODサンプルの同時検出における自己教師付きコントラスト学習の利用について検討する。
まず,自己指導型コントラスト学習と,最大平均誤差(MMD)2サンプルテストとを組み合わせた。
この成功に触発されたCADetは,単一試料のOOD検出のための新しい手法である。
論文 参考訳(メタデータ) (2022-10-04T17:02:37Z) - IDIAPers @ Causal News Corpus 2022: Efficient Causal Relation
Identification Through a Prompt-based Few-shot Approach [3.4423596432619754]
我々は、微調整言語モデル(LM)のための単純だが相補的手法のセットを活用することで、因果関係同定(CRI)タスクに対処する。
我々は、CRIタスクをマスキング言語モデリング問題(MLM)として扱う微調整LMのプロンプトベースの予測手法に従う。
本手法の性能を,データセット全体で訓練されたアンサンブル手法と比較する。
論文 参考訳(メタデータ) (2022-09-08T16:03:50Z) - Sequence-level self-learning with multiple hypotheses [53.04725240411895]
我々は、自動音声認識(ASR)のためのアテンションベースシーケンス・ツー・シーケンス(seq2seq)モデルを用いた新しい自己学習手法を開発した。
従来の教師なし学習手法とは対照的に,我々はEmphmulti-task Learning(MTL)フレームワークを採用する。
実験の結果,本手法は,英語データのみを用いてトレーニングしたベースラインモデルと比較して,英文音声データのWERを14.55%から10.36%に削減できることがわかった。
論文 参考訳(メタデータ) (2021-12-10T20:47:58Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。