論文の概要: Dementia Through Different Eyes: Explainable Modeling of Human and LLM Perceptions for Early Awareness
- arxiv url: http://arxiv.org/abs/2505.13418v1
- Date: Mon, 19 May 2025 17:51:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.789637
- Title: Dementia Through Different Eyes: Explainable Modeling of Human and LLM Perceptions for Early Awareness
- Title(参考訳): 異なる目を通しての認知:早期認知のための人間とLLM知覚の説明可能なモデリング
- Authors: Lotem Peled-Cohen, Maya Zadok, Nitay Calderon, Hila Gonen, Roi Reichart,
- Abstract要約: 本稿では,非専門家による認知症が言語を通してどのように認識されるかを検討する。
本研究では,非専門家の人間やLSMに対して,テキストが健康な人や認知症の人によって作成されたかどうかを直感的に判断するよう依頼する。
我々の分析によると、認知症に対する人間の認識は一貫性がなく、狭く、時には誤解を招くような一連の手がかりに依存している。
- 参考スコア(独自算出の注目度): 27.406838596892207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cognitive decline often surfaces in language years before diagnosis. It is frequently non-experts, such as those closest to the patient, who first sense a change and raise concern. As LLMs become integrated into daily communication and used over prolonged periods, it may even be an LLM that notices something is off. But what exactly do they notice--and should be noticing--when making that judgment? This paper investigates how dementia is perceived through language by non-experts. We presented transcribed picture descriptions to non-expert humans and LLMs, asking them to intuitively judge whether each text was produced by someone healthy or with dementia. We introduce an explainable method that uses LLMs to extract high-level, expert-guided features representing these picture descriptions, and use logistic regression to model human and LLM perceptions and compare with clinical diagnoses. Our analysis reveals that human perception of dementia is inconsistent and relies on a narrow, and sometimes misleading, set of cues. LLMs, by contrast, draw on a richer, more nuanced feature set that aligns more closely with clinical patterns. Still, both groups show a tendency toward false negatives, frequently overlooking dementia cases. Through our interpretable framework and the insights it provides, we hope to help non-experts better recognize the linguistic signs that matter.
- Abstract(参考訳): 認知の低下は診断前の言語でしばしば現れる。
患者に最も近い患者のように、最初に変化を感じて懸念を抱くことは、しばしば非専門家である。
LLMが日々のコミュニケーションに統合され、長期間にわたって使用されるようになると、何かがオフになっていることに気付くのはLLMかもしれない。
しかし、正確には何に気づき、その判断を下すときに注意すべきなのか?
本稿では,非専門家による認知症が言語を通してどのように認識されるかを検討する。
筆者らは,非専門家の人間やLSMに対して,テキストが健康な人か認知症かを直感的に判断するよう依頼した。
本稿では,LSMを用いてこれらの画像記述を表現した高レベルの専門家誘導的特徴を抽出し,ロジスティック回帰を用いてヒトおよびLSMの知覚をモデル化し,臨床診断との比較を行うための説明可能な方法を提案する。
我々の分析によると、認知症に対する人間の認識は一貫性がなく、狭く、時には誤解を招くような一連の手がかりに依存している。
対照的にLLMは、よりリッチでニュアンスの高い特徴セットを、臨床パターンとより密接に一致させる。
それでも、どちらのグループも偽陰性傾向を示しており、しばしば認知症のケースを見落としている。
解釈可能なフレームワークとそれがもたらす洞察を通じて、私たちは、非専門家が重要な言語的な兆候をよりよく認識できるようにしたいと思っています。
関連論文リスト
- Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - MedHalu: Hallucinations in Responses to Healthcare Queries by Large Language Models [26.464489158584463]
患者からのリアルタイム医療クエリに対するLCM生成反応における幻覚の先駆的な研究を行う。
MedHaluは、健康関連トピックが多種多様である、注意深く構築された医療幻覚データセットである。
MedHaluDetect フレームワークを導入し,幻覚検出における様々な LLM の機能を評価する。
論文 参考訳(メタデータ) (2024-09-29T00:09:01Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - LLM Internal States Reveal Hallucination Risk Faced With a Query [62.29558761326031]
人間は、クエリに直面したとき、私たちが知らないことを認識できる自己認識プロセスを持っています。
本稿では,大規模言語モデルが応答生成に先立って,自身の幻覚リスクを推定できるかどうかを検討する。
確率推定器により, LLM自己評価を利用して, 平均幻覚推定精度84.32%を達成する。
論文 参考訳(メタデータ) (2024-07-03T17:08:52Z) - Analyzing LLM Behavior in Dialogue Summarization: Unveiling Circumstantial Hallucination Trends [38.86240794422485]
対話要約のための大規模言語モデルの忠実度を評価する。
私たちの評価は幻覚を構成するものに関して微妙な点を呈する。
既存の指標より優れた微細な誤差検出のための2つのプロンプトベースのアプローチを導入する。
論文 参考訳(メタデータ) (2024-06-05T17:49:47Z) - Redefining "Hallucination" in LLMs: Towards a psychology-informed
framework for mitigating misinformation [0.7826806223782052]
認知バイアスやその他の心理的現象に基づく心理的分類法を提案する。
人間が同様の課題を内部的に解決する方法の洞察を活用することで、幻覚を緩和するための戦略を開発することを目指している。
論文 参考訳(メタデータ) (2024-02-01T03:01:11Z) - Analyzing and Mitigating Object Hallucination in Large Vision-Language Models [110.12460299261531]
大規模視覚言語モデル(LVLM)は、人間の言語で視覚情報を理解する際、顕著な能力を示した。
LVLMは依然として物体幻覚に悩まされており、画像に実際に存在しない物体を含む記述を生成するという問題である。
そこで我々は,LVLMの幻覚を再現するアルゴリズム LVLM Hallucination Revisor (LURE) を提案する。
論文 参考訳(メタデータ) (2023-10-01T18:10:53Z) - Thinking Fast and Slow in Large Language Models [0.08057006406834465]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を結び付けるAIシステムの最前線にある。
本研究では, GPT-3 のような LLM は人間の直感に類似した行動を示し,それに伴う認知的誤りを示す。
論文 参考訳(メタデータ) (2022-12-10T05:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。