論文の概要: The Problem of Atypicality in LLM-Powered Psychiatry
- arxiv url: http://arxiv.org/abs/2508.06479v1
- Date: Fri, 08 Aug 2025 17:36:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.324946
- Title: The Problem of Atypicality in LLM-Powered Psychiatry
- Title(参考訳): LLMによる精神医学における非定型性の問題
- Authors: Bosco Garcia, Eugene Y. S. Chua, Harman Singh Brah,
- Abstract要約: 大規模言語モデル(LLM)は、世界的なメンタルヘルス危機に対するスケーラブルな解決策として、ますます提案されている。
彼らの精神医学的文脈への展開は、顕著な倫理的関心、すなわち非定型性の問題を引き起こす。
我々は、この構造的リスクを解決するには、迅速なエンジニアリングや微調整のような標準緩和戦略が不十分であると主張している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) are increasingly proposed as scalable solutions to the global mental health crisis. But their deployment in psychiatric contexts raises a distinctive ethical concern: the problem of atypicality. Because LLMs generate outputs based on population-level statistical regularities, their responses -- while typically appropriate for general users -- may be dangerously inappropriate when interpreted by psychiatric patients, who often exhibit atypical cognitive or interpretive patterns. We argue that standard mitigation strategies, such as prompt engineering or fine-tuning, are insufficient to resolve this structural risk. Instead, we propose dynamic contextual certification (DCC): a staged, reversible and context-sensitive framework for deploying LLMs in psychiatry, inspired by clinical translation and dynamic safety models from artificial intelligence governance. DCC reframes chatbot deployment as an ongoing epistemic and ethical process that prioritises interpretive safety over static performance benchmarks. Atypicality, we argue, cannot be eliminated -- but it can, and must, be proactively managed.
- Abstract(参考訳): 大規模言語モデル(LLM)は、世界的なメンタルヘルス危機に対するスケーラブルな解決策として、ますます提案されている。
しかし、彼らの精神医学的文脈への展開は、独特な倫理的関心、すなわち非定型性の問題を引き起こす。
LLMは人口レベルの統計規則に基づいてアウトプットを生成するため、一般的に一般ユーザーに適しているが、非定型的認知パターンや解釈パターンを示す精神科患者によって解釈される場合、その反応は危険なほど不適切である可能性がある。
我々は、この構造的リスクを解決するには、迅速なエンジニアリングや微調整のような標準緩和戦略が不十分であると主張している。
代わりに、我々は、臨床翻訳と人工知能ガバナンスからの動的安全モデルに触発されて、精神医学にLLMをデプロイするための段階的で可逆的で文脈に敏感なフレームワークである動的文脈認証(DCC)を提案する。
DCCは、チャットボットのデプロイメントを、静的パフォーマンスベンチマークよりも解釈上の安全性を優先する、継続的な認識的および倫理的プロセスとして再設定する。
非定型性は排除できないが、積極的に管理されなければならない。
関連論文リスト
- Are Large Language Models Dynamic Treatment Planners? An In Silico Study from a Prior Knowledge Injection Angle [3.0391297540732545]
インシリコ1型糖尿病シミュレーターにおいて,大型言語モデル (LLM) を動的インスリン投与剤として評価した。
以上の結果より, ゼロショットプロンプトを慎重に設計することで, より小型のLCMが同等あるいは優れた臨床成績を達成できることが示唆された。
LLMは、チェーン・オブ・シンドロームで刺激された時に過度にアグレッシブなインスリン投与など、顕著な制限を呈する。
論文 参考訳(メタデータ) (2025-08-06T13:46:02Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - MIRAGE-Bench: LLM Agent is Hallucinating and Where to Find Them [52.764019220214344]
幻覚は、大きな言語モデル(LLM)ベースのエージェントに重大なリスクをもたらす。
MIRAGE-Benchは対話型環境における幻覚の抽出と評価のための最初の統一ベンチマークである。
論文 参考訳(メタデータ) (2025-07-28T17:38:29Z) - Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - A Risk Taxonomy for Evaluating AI-Powered Psychotherapy Agents [10.405048273969085]
我々は、会話型AI心理療法士の体系的評価に特化して設計された新しいリスク分類法を導入する。
我々は、カウンセリング会話中に認知モデルに基づくリスクファクターを監視して、安全でない逸脱を検出するという2つのユースケースと、シミュレーションされた患者とのAI心理療法士の自動ベンチマークについて詳細に論じる。
論文 参考訳(メタデータ) (2025-05-21T05:01:39Z) - Cannot See the Forest for the Trees: Invoking Heuristics and Biases to Elicit Irrational Choices of LLMs [83.11815479874447]
本研究では,人間の認知における認知的分解と偏見に触発された新しいジェイルブレイク攻撃フレームワークを提案する。
我々は、悪意のあるプロンプトの複雑さと関連バイアスを減らし、認知的分解を用いて、プロンプトを再編成する。
また、従来の二分的成功または失敗のパラダイムを超越したランキングベースの有害度評価指標も導入する。
論文 参考訳(メタデータ) (2025-05-03T05:28:11Z) - Position: Beyond Assistance - Reimagining LLMs as Ethical and Adaptive Co-Creators in Mental Health Care [9.30684296057698]
このポジションペーパーは、大規模言語モデル(LLM)がメンタルヘルスドメインにどのように統合されるか、という変化を論じている。
我々は、単なる補助ツールではなく、共同創造者としての役割を主張する。
論文 参考訳(メタデータ) (2025-02-21T21:41:20Z) - Risks from Language Models for Automated Mental Healthcare: Ethics and Structure for Implementation [0.0]
本稿では、自律性のレベルを規定し、倫理的要件を概説し、AIエージェントに最適なデフォルト動作を定義する構造化フレームワークを提案する。
また,16のメンタルヘルス関連質問紙を用いて,14の最先端言語モデル(既成語10種,微調整語4種)を評価した。
論文 参考訳(メタデータ) (2024-04-02T15:05:06Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。