論文の概要: Linguistic Comparison of AI- and Human-Written Responses to Online Mental Health Queries
- arxiv url: http://arxiv.org/abs/2504.09271v1
- Date: Sat, 12 Apr 2025 16:20:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:54:45.772306
- Title: Linguistic Comparison of AI- and Human-Written Responses to Online Mental Health Queries
- Title(参考訳): オンラインメンタルヘルスクエリに対するAIと人文応答の言語学的比較
- Authors: Koustuv Saha, Yoshee Jain, Munmun De Choudhury,
- Abstract要約: ジェネレーティブAIと大規模言語モデル(LLMs)は、スケーラブルで、時周のメンタルヘルス支援のための新しい可能性を導入した。
本研究ではReddit上の55のオンラインサポートコミュニティから24,114の投稿と138,758のオンラインコミュニティ(OC)の回答を得た。
その結果、AI応答はより冗長で、読みやすく、分析的に構造化されているが、言語的多様性や人間と人間の相互作用に固有の個人の物語は欠如していることが判明した。
- 参考スコア(独自算出の注目度): 17.133059430285627
- License:
- Abstract: The ubiquity and widespread use of digital and online technologies have transformed mental health support, with online mental health communities (OMHCs) providing safe spaces for peer support. More recently, generative AI and large language models (LLMs) have introduced new possibilities for scalable, around-the-clock mental health assistance that could potentially augment and supplement the capabilities of OMHCs. Although genAI shows promise in delivering immediate and personalized responses, their effectiveness in replicating the nuanced, experience-based support of human peers remains an open question. In this study, we harnessed 24,114 posts and 138,758 online community (OC) responses from 55 OMHCs on Reddit. We prompted several state-of-the-art LLMs (GPT-4-Turbo, Llama-3, and Mistral-7B) with these posts, and compared their (AI) responses to human-written (OC) responses based on a variety of linguistic measures across psycholinguistics and lexico-semantics. Our findings revealed that AI responses are more verbose, readable, and analytically structured, but lack linguistic diversity and personal narratives inherent in human-human interactions. Through a qualitative examination, we found validation as well as complementary insights into the nature of AI responses, such as its neutrality of stance and the absence of seeking back-and-forth clarifications. We discuss the ethical and practical implications of integrating generative AI into OMHCs, advocating for frameworks that balance AI's scalability and timeliness with the irreplaceable authenticity, social interactiveness, and expertise of human connections that form the ethos of online support communities.
- Abstract(参考訳): デジタルおよびオンライン技術の普及と普及により、オンラインメンタルヘルスコミュニティ(OMHC)は、ピアサポートのための安全なスペースを提供している。
最近では、ジェネレーティブAIと大規模言語モデル(LLMs)が、OMHCの能力を増強し補う可能性のある、スケーラブルで、時周のメンタルヘルスアシストの新たな可能性を導入している。
genAIは、即時かつパーソナライズされた応答を提供するという約束を示しているが、人間の仲間のニュアンスで経験に基づくサポートを複製する効果は未解決のままである。
本研究ではReddit上の55のOMHCから24,114の投稿と138,758のオンラインコミュニティ(OC)の回答を利用した。
現状のLSM (GPT-4-Turbo, Llama-3, Mistral-7B) とこれらのポストを併用し, 精神言語学および語彙学の多種多様な言語的尺度に基づいて, 人文(OC) 応答に対するAI応答を比較した。
その結果、AI応答はより冗長で、読みやすく、分析的に構造化されているが、言語的多様性や人間と人間の相互作用に固有の個人の物語は欠如していることが判明した。
質的な検証を通じて、姿勢の中立性や前後の明確化を求めることの欠如など、AI応答の性質に関する検証と補完的な洞察を見出した。
我々は、生成AIをOMHCに統合することの倫理的および実践的な意味について論じ、AIのスケーラビリティとタイムラインと、オンラインサポートコミュニティの倫理を形成する人間関係の確実性、社会的対話性、専門性とをバランスさせるフレームワークを提唱する。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z) - Empathy Through Multimodality in Conversational Interfaces [1.360649555639909]
会話型健康エージェント(CHA)は、感情的なインテリジェンスを組み込むためにテキスト分析を超越するニュアンスなサポートを提供することで、医療を再定義している。
本稿では、豊かなマルチモーダル対話のためのLCMベースのCHAについて紹介する。
マルチモーダルな手がかりを解析することにより、ユーザの感情状態に順応的に解釈し、応答し、文脈的に認識され、共感的に反響する音声応答を提供する。
論文 参考訳(メタデータ) (2024-05-08T02:48:29Z) - Challenges of Large Language Models for Mental Health Counseling [4.604003661048267]
世界のメンタルヘルス危機は、精神疾患の急速な増加、限られた資源、治療を求める社会的便宜によって悪化している。
メンタルヘルス領域における大規模言語モデル(LLM)の適用は、提供された情報の正確性、有効性、信頼性に関する懸念を提起する。
本稿では, モデル幻覚, 解釈可能性, バイアス, プライバシ, 臨床効果など, 心理カウンセリングのためのLSMの開発に伴う課題について検討する。
論文 参考訳(メタデータ) (2023-11-23T08:56:41Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - MAILS -- Meta AI Literacy Scale: Development and Testing of an AI
Literacy Questionnaire Based on Well-Founded Competency Models and
Psychological Change- and Meta-Competencies [6.368014180870025]
アンケートはモジュラー(すなわち、互いに独立して使用できる異なるファセットを含む)であり、プロフェッショナルな生活に柔軟に適用できるべきである。
我々は、AIリテラシーの異なる側面を表すために、Ngと同僚がAIリテラシーを概念化した60項目を作成した。
AIに関する問題解決、学習、感情制御などの心理的能力を表す12項目が追加されている。
論文 参考訳(メタデータ) (2023-02-18T12:35:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Human-AI Collaboration Enables More Empathic Conversations in Text-based
Peer-to-Peer Mental Health Support [10.743204843534512]
AI-in-the-loopエージェントであるHayleyを開発した。このエージェントは、サポートを提供する参加者(ピアサポーター)が助けを求める参加者(フォスター支援者)に対して共感的に反応するのを助けるために、ジャスト・イン・タイムフィードバックを提供する。
我々の人間とAIのコラボレーションアプローチは、ピア間での会話の共感を19.60%増加させます。
支援の難しさを自認するピアサポーターのサブサンプルでは,38.88%の共感が増大している。
論文 参考訳(メタデータ) (2022-03-28T23:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。