論文の概要: Demo Alleviate: Demonstrating Artificial Intelligence Enabled Virtual
Assistance for Telehealth: The Mental Health Case
- arxiv url: http://arxiv.org/abs/2304.00025v1
- Date: Fri, 31 Mar 2023 16:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 20:06:58.873750
- Title: Demo Alleviate: Demonstrating Artificial Intelligence Enabled Virtual
Assistance for Telehealth: The Mental Health Case
- Title(参考訳): demo alleviate: 人工知能による遠隔医療の仮想支援のデモ: the mental health case
- Authors: Kaushik Roy, Vedant Khandelwal, Raxit Goswami, Nathan Dolbir, Jinendra
Malekar, Amit Sheth
- Abstract要約: そこで我々は、パーソナライズされたケアでメンタルヘルスの課題を抱える患者を援助し、患者をよりよく理解する臨床医を支援するために、Aleviateを提案する。
Alleviateは、臨床で有効なメンタルヘルスのテキストとデータベースを公開して、医学的に健全で情報的な意思決定を可能にする。
本稿では、Alleviateの異なるモジュールを説明し、患者と臨床医がお互いをよりよく理解するためのAlleviateの能力を示す短いビデオを提出する。
- 参考スコア(独自算出の注目度): 20.602347045884617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: After the pandemic, artificial intelligence (AI) powered support for mental
health care has become increasingly important. The breadth and complexity of
significant challenges required to provide adequate care involve: (a)
Personalized patient understanding, (b) Safety-constrained and medically
validated chatbot patient interactions, and (c) Support for continued
feedback-based refinements in design using chatbot-patient interactions. We
propose Alleviate, a chatbot designed to assist patients suffering from mental
health challenges with personalized care and assist clinicians with
understanding their patients better. Alleviate draws from an array of publicly
available clinically valid mental-health texts and databases, allowing
Alleviate to make medically sound and informed decisions. In addition,
Alleviate's modular design and explainable decision-making lends itself to
robust and continued feedback-based refinements to its design. In this paper,
we explain the different modules of Alleviate and submit a short video
demonstrating Alleviate's capabilities to help patients and clinicians
understand each other better to facilitate optimal care strategies.
- Abstract(参考訳): パンデミック後、人工知能(AI)によるメンタルヘルス支援がますます重要になっている。
適切なケアを提供するために必要な重要な課題の幅と複雑さ。
(a)パーソナライズされた患者理解
ロ チャットボット患者との相互作用の安全性の制限及び医学的検証
(c)チャットボットと患者とのインタラクションを用いた設計における継続的なフィードバックに基づく改善支援。
そこで本研究では,精神疾患に苦しむ患者をパーソナライズケアで支援し,臨床医が患者の理解を深めるためのチャットボットであるalleviateを提案する。
Alleviateは、臨床で有効なメンタルヘルスのテキストとデータベースを公開して、医療的に健全で情報的な意思決定を可能にする。
さらに、alleviateのモジュラーデザインと説明可能な意思決定は、その設計に堅牢で継続的なフィードバックベースの改良をもたらす。
本稿では, Alleviate の異なるモジュールについて解説し, 患者と臨床医がお互いをよりよく理解し, 最適なケア戦略を促進する上での Alleviate の機能を示す短いビデオを提出する。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Enhancing Mental Health Support through Human-AI Collaboration: Toward Secure and Empathetic AI-enabled chatbots [0.0]
本稿では、スケーラブルなソリューションとしてのAI対応チャットボットの可能性について検討する。
メンタルヘルスの文脈で共感的で有意義な反応を提供する能力を評価する。
本稿では,データプライバシを保証し,バイアスを低減し,臨床医による継続的検証を統合して応答品質を向上させるためのフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-17T20:49:13Z) - Enhancing AI-Driven Psychological Consultation: Layered Prompts with Large Language Models [44.99833362998488]
我々は, GPT-4 のような大規模言語モデル (LLM) を用いて, 心理的コンサルテーションサービスの強化について検討する。
提案手法では,ユーザ入力に動的に適応する新しい階層型プロンプトシステムを提案する。
また,LLMの感情的インテリジェンスを高めるために,共感とシナリオに基づくプロンプトを開発する。
論文 参考訳(メタデータ) (2024-08-29T05:47:14Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - Yes, this is what I was looking for! Towards Multi-modal Medical
Consultation Concern Summary Generation [46.42604861624895]
マルチモーダル・メディカル・コンシューム・サマリ・ジェネレーションの新しい課題を提案する。
患者のジェスチャーや表情などの非言語的手がかりは、患者の懸念を正確に識別するのに役立つ。
マルチモーダル・メディカル・コンシューム・サマリー・ジェネレーション・コーパスを構築。
論文 参考訳(メタデータ) (2024-01-10T12:56:47Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - PaniniQA: Enhancing Patient Education Through Interactive Question
Answering [25.717709820995367]
PaniniQAは、患者の退院指示を理解するために設計された、患者中心の対話型質問応答システムである。
パニーニQAは、まず患者の退院指示から重要な臨床内容を特定し、その後、患者固有の教育的質問を定式化する。
論文 参考訳(メタデータ) (2023-08-07T02:18:23Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。