論文の概要: Between Myths and Metaphors: Rethinking LLMs for SRH in Conservative Contexts
- arxiv url: http://arxiv.org/abs/2511.01907v1
- Date: Fri, 31 Oct 2025 13:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.580339
- Title: Between Myths and Metaphors: Rethinking LLMs for SRH in Conservative Contexts
- Title(参考訳): 神話とメタファー:保守的文脈におけるSRHのためのLLMの再考
- Authors: Ameemah Humayun, Bushra Zubair, Maryam Mustafa,
- Abstract要約: 低資源国は母国の死の90%以上を占めており、パキスタンは2023年の人口の半分近くを占めている。
これらの死のほとんどは予防可能であるため、大きな言語モデル(LLM)は、健康コミュニケーションとリスクアセスメントを自動化することで、この危機に対処するのに役立つ。
我々はパキスタンで2段階の研究を行い、臨床観察、インタビュー、臨床医や患者との焦点グループからのデータを分析し、このデータに基づいて5つの人気のあるLCMの解釈能力を評価する。
- 参考スコア(独自算出の注目度): 2.3895981099137535
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Low-resource countries represent over 90% of maternal deaths, with Pakistan among the top four countries contributing nearly half in 2023. Since these deaths are mostly preventable, large language models (LLMs) can help address this crisis by automating health communication and risk assessment. However, sexual and reproductive health (SRH) communication in conservative contexts often relies on indirect language that obscures meaning, complicating LLM-based interventions. We conduct a two-stage study in Pakistan: (1) analyzing data from clinical observations, interviews, and focus groups with clinicians and patients, and (2) evaluating the interpretive capabilities of five popular LLMs on this data. Our analysis identifies two axes of communication (referential domain and expression approach) and shows LLMs struggle with semantic drift, myths, and polysemy in clinical interactions. We contribute: (1) empirical themes in SRH communication, (2) a categorization framework for indirect communication, (3) evaluation of LLM performance, and (4) design recommendations for culturally-situated SRH communication.
- Abstract(参考訳): 低資源国は母国の死の90%以上を占めており、パキスタンは2023年の人口の半分近くを占めている。
これらの死のほとんどは予防可能であるため、大きな言語モデル(LLM)は、健康コミュニケーションとリスクアセスメントを自動化することで、この危機に対処するのに役立つ。
しかし、保守的な文脈における性的・生殖的健康(SRH)コミュニケーションは、しばしばLLMに基づく介入を複雑にし、意味を曖昧にする間接的な言語に依存している。
パキスタンでは,(1)臨床観察,インタビュー,フォーカスグループからのデータを臨床医や患者と分析し,(2)このデータに基づいて5つのLLMの解釈能力を評価する。
本分析では,2つのコミュニケーションの軸(参照領域と表現アプローチ)を同定し,LLMが臨床的相互作用において意味的ドリフト,神話,多意味性に苦しむことを示す。
我々は,(1)SRHコミュニケーションにおける経験的テーマ,(2)間接コミュニケーションのための分類フレームワーク,(3)LLM性能の評価,(4)文化的なSRHコミュニケーションのための設計勧告などを貢献する。
関連論文リスト
- Independent Clinical Evaluation of General-Purpose LLM Responses to Signals of Suicide Risk [32.17406690566923]
本稿では,大言語モデル(LLM)が自殺思考・行動リスクのユーザ信号に応答してどのように振る舞うべきか,というエビデンスに基づく議論を促すための知見と方法を紹介する。
我々は,OLMo-2-32b,および拡張によって,ユーザがマルチターン設定でSTBリスクの信号を送信すると,継続ダイアログを招待する可能性が低下することを発見した。
論文 参考訳(メタデータ) (2025-10-31T14:47:11Z) - Evaluating & Reducing Deceptive Dialogue From Language Models with Multi-turn RL [64.3268313484078]
大規模言語モデル(LLM)は、顧客サポート、教育、医療など、世界中の何百万もの人々と対話する。
故意であれ不注意であれ、偽りのアウトプットを生産する能力は、重大な安全上の懸念を生じさせる。
本研究では, LLM が会話中の偽装にどの程度関与しているかを考察し, 偽装を定量化する信念の誤調整尺度を提案する。
論文 参考訳(メタデータ) (2025-10-16T05:29:36Z) - Communication Styles and Reader Preferences of LLM and Human Experts in Explaining Health Information [20.955508468328603]
大規模言語モデル(LLM)の通信スタイルについて検討した。
権威ある事実検査機関から1498件の健康誤報説明データセットを収集した。
情報提示に対するLCMの構造化アプローチは,読者の関心を喚起する上でより効果的である可能性が示唆された。
論文 参考訳(メタデータ) (2025-05-13T00:32:38Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Large Language Models as Neurolinguistic Subjects: Discrepancy between Performance and Competence [49.60849499134362]
本研究では,大言語モデル(LLM)の記号化(形式)および記号化(意味)に関する言語的理解について検討する。
ミニマルペアと診断プローブを組み合わせてモデル層間のアクティベーションパターンを解析する新しい手法を用いて,ニューロ言語学的アプローチを提案する。
その結果,(1)心理言語学的・神経言語学的手法では,言語能力と能力が異なっていること,(2)直接確率測定では言語能力が正確に評価されないこと,(3)指導のチューニングでは能力が大きく変化しないが,性能は向上しないことがわかった。
論文 参考訳(メタデータ) (2024-11-12T04:16:44Z) - Arabic Dataset for LLM Safeguard Evaluation [62.96160492994489]
本研究では,アラビア語における大言語モデル(LLM)の安全性と,その言語的・文化的複雑さについて考察する。
本稿では, 直接攻撃, 間接攻撃, センシティブな単語による無害な要求を含む5,799の質問からなるアラブ地域固有の安全評価データセットを提案する。
論文 参考訳(メタデータ) (2024-10-22T14:12:43Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - FactPICO: Factuality Evaluation for Plain Language Summarization of Medical Evidence [46.71469172542448]
本稿では,医療用テキストのプレーン言語要約のためのファクトPICOを提案する。
3つのランダム化制御試験(RCT)から生成される抽象語の345のプレーン言語要約で構成されている。
本研究は,これらのサマリーにおけるRCTの重要要素の事実と,それらに関する報告された知見について評価する。
論文 参考訳(メタデータ) (2024-02-18T04:45:01Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。