論文の概要: Framing Responsible Design of AI Mental Well-Being Support: AI as Primary Care, Nutritional Supplement, or Yoga Instructor?
- arxiv url: http://arxiv.org/abs/2602.02740v1
- Date: Mon, 02 Feb 2026 19:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.053234
- Title: Framing Responsible Design of AI Mental Well-Being Support: AI as Primary Care, Nutritional Supplement, or Yoga Instructor?
- Title(参考訳): AIメンタルウェルビーリング支援のフラーミング責任設計:プライマリケアとしてのAI、栄養補助、ヨガインストラクタ?
- Authors: Ned Cooper, Jose A. Guridi, Angel Hsing-Chi Hwang, Beth Kolko, Beth McGinty, Qian Yang,
- Abstract要約: 数百万の人たちが、ChatGPTのような非クリニカルなLarge Language Model(LLM)ツールをメンタルヘルスサポートに使用しています。
本稿では,このようなツールを設計することの意味について考察する。
- 参考スコア(独自算出の注目度): 9.39914072801354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Millions of people now use non-clinical Large Language Model (LLM) tools like ChatGPT for mental well-being support. This paper investigates what it means to design such tools responsibly, and how to operationalize that responsibility in their design and evaluation. By interviewing experts and analyzing related regulations, we found that designing an LLM tool responsibly involves: (1) Articulating the specific benefits it guarantees and for whom. Does it guarantee specific, proven relief, like an over-the-counter drug, or offer minimal guarantees, like a nutritional supplement? (2) Specifying the LLM tool's "active ingredients" for improving well-being and whether it guarantees their effective delivery (like a primary care provider) or not (like a yoga instructor). These specifications outline an LLM tool's pertinent risks, appropriate evaluation metrics, and the respective responsibilities of LLM developers, tool designers, and users. These analogies - LLM tools as supplements, drugs, yoga instructors, and primary care providers - can scaffold further conversations about their responsible design.
- Abstract(参考訳): 数百万の人たちが、ChatGPTのような非クリニカルなLarge Language Model(LLM)ツールをメンタルヘルスサポートに使用しています。
本稿では,このようなツールを設計することの意味と,その設計・評価における責任の運用方法について検討する。
専門家にインタビューし、関連する規制を分析することで、LLMツールの設計には責任があることがわかった。
オーバー・ザ・カウンタ・ドラッグのような特定の、証明された救済を保証しているか、あるいは栄養サプリメントのような最小限の保証を提供するのか?
2) LLMツールの「有効成分」を指定することにより, ウェルビーイングを改善するとともに, 有効納品(プライマリケア提供者など)が保証されるか否か(ヨガインストラクター等)を判断する。
これらの仕様は、LLMツールの関連するリスク、適切な評価基準、LLM開発者、ツールデザイナ、ユーザの責任を概説している。
これらの類似品 - LLMツールをサプリメントや薬品、ヨガインストラクター、プライマリケアプロバイダとして使用することで、責任あるデザインに関するさらなる議論を足場にすることができる。
関連論文リスト
- LLM Agents Beyond Utility: An Open-Ended Perspective [50.809163251551894]
我々は、事前訓練されたLLMエージェントを、自身のタスクを生成し、知識を蓄積し、その環境と広範囲に相互作用する能力で強化する。
複雑なマルチステップ命令を確実に追跡し、実行中に情報を保存、再利用し、独自のタスクを提案し、解決することができる。
迅速な設計や反復的なタスク生成に敏感であり、自己表現を形成することができない。
論文 参考訳(メタデータ) (2025-10-16T10:46:54Z) - "It Listens Better Than My Therapist": Exploring Social Media Discourse on LLMs as Mental Health Tool [1.223779595809275]
大きな言語モデル(LLM)は、会話の流布、共感シミュレーション、可用性の新機能を提供する。
本研究では,1万件以上のTikTokコメントを分析し,LLMをメンタルヘルスツールとして利用する方法について検討した。
その結果、コメントの20%近くが個人利用を反映しており、これらのユーザーは圧倒的に肯定的な態度を示している。
論文 参考訳(メタデータ) (2025-04-14T17:37:32Z) - Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - MeNTi: Bridging Medical Calculator and LLM Agent with Nested Tool Calling [12.236137157144965]
大規模言語モデル(LLM)のための汎用エージェントアーキテクチャであるMeNTiを紹介する。
MeNTiは特殊な医療ツールキットを統合し、メタツールとネスト呼び出し機構を使用してLSMツールの利用を促進する。
計算機シナリオの臨床過程におけるLCMの定量的評価能力を評価するために,CalcQAを紹介する。
論文 参考訳(メタデータ) (2024-10-17T14:46:22Z) - Learning to Ask: When LLM Agents Meet Unclear Instruction [55.65312637965779]
大きな言語モデル(LLM)は、言語スキルだけでは達成不可能なタスクに対処するための外部ツールを活用することができる。
我々は、不完全な命令下でのLLMツールの使用性能を評価し、エラーパターンを分析し、Noisy ToolBenchと呼ばれる挑戦的なツール使用ベンチマークを構築した。
Ask-when-Needed (AwN) という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-31T23:06:12Z) - What You Need is What You Get: Theory of Mind for an LLM-Based Code Understanding Assistant [0.0]
開発者のコード理解を支援するために、多くのツールがLLM(Large Language Models)を使用している。
本研究では,LLMをベースとした対話型アシスタントの設計を行った。
コード理解の初心者を支援するためにLLMベースの会話アシスタントを開発したり改善したりしたい研究者やツールビルダーに洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T14:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。