論文の概要: A General-purpose AI Avatar in Healthcare
- arxiv url: http://arxiv.org/abs/2401.12981v1
- Date: Wed, 10 Jan 2024 03:44:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:44:16.897228
- Title: A General-purpose AI Avatar in Healthcare
- Title(参考訳): 医療における汎用AIアバター
- Authors: Nicholas Yan, Gil Alterovitz
- Abstract要約: 本稿では、医療におけるチャットボットの役割に焦点を当て、AIインタラクションをより患者にアピールするためのアバターの使用について検討する。
汎用AIアバターアプリケーションのフレームワークを3カテゴリのプロンプト辞書とプロンプト改善機構を用いて実証する。
2段階のアプローチでは、汎用AI言語モデルを微調整し、異なるAIアバターを作成して、ユーザと医療上の問題について議論することが提案されている。
- 参考スコア(独自算出の注目度): 1.5081825869395544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in machine learning and natural language processing have
led to the rapid development of artificial intelligence (AI) as a valuable tool
in the healthcare industry. Using large language models (LLMs) as
conversational agents or chatbots has the potential to assist doctors in
diagnosing patients, detecting early symptoms of diseases, and providing health
advice to patients. This paper focuses on the role of chatbots in healthcare
and explores the use of avatars to make AI interactions more appealing to
patients. A framework of a general-purpose AI avatar application is
demonstrated by using a three-category prompt dictionary and prompt improvement
mechanism. A two-phase approach is suggested to fine-tune a general-purpose AI
language model and create different AI avatars to discuss medical issues with
users. Prompt engineering enhances the chatbot's conversational abilities and
personality traits, fostering a more human-like interaction with patients.
Ultimately, the injection of personality into the chatbot could potentially
increase patient engagement. Future directions for research include
investigating ways to improve chatbots' understanding of context and ensuring
the accuracy of their outputs through fine-tuning with specialized medical data
sets.
- Abstract(参考訳): 近年の機械学習と自然言語処理の進歩は、医療産業において重要なツールとして人工知能(AI)の急速な発展につながっている。
会話エージェントやチャットボットとして大規模言語モデル(llm)を使用することで、患者の診断、疾患の早期症状の検出、患者への健康アドバイスの提供を支援することができる。
本稿では、医療におけるチャットボットの役割に焦点を当て、AIインタラクションをより患者にアピールするためのアバターの使用について検討する。
汎用AIアバターアプリケーションのフレームワークを3カテゴリのプロンプト辞書とプロンプト改善機構を用いて実証する。
2段階のアプローチは、汎用ai言語モデルを微調整し、異なるaiアバターを作成して、ユーザと医療上の問題を議論する。
プロンプトエンジニアリングはチャットボットの会話能力と性格特性を高め、患者とのより人間的な対話を促進する。
最終的に、チャットボットにパーソナリティを注入することで、患者のエンゲージメントが向上する可能性がある。
研究の今後の方向性には、チャットボットのコンテキスト理解を改善する方法や、専門的な医療データセットによる微調整によるアウトプットの精度確保などが含まれる。
関連論文リスト
- Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions [9.327472312657392]
医療領域へのLarge Language Models(LLMs)の統合は、患者のケアとサポートを大幅に強化する可能性がある。
本研究は、ChatGPTが医師が通常提供するものよりも共感の度合いが高いかどうかを調査する。
マヨクリニックから患者メッセージと医師の回答の非特定データセットを収集し,ChatGPTを用いて代替応答を生成する。
論文 参考訳(メタデータ) (2024-05-26T01:58:57Z) - How Reliable AI Chatbots are for Disease Prediction from Patient Complaints? [0.0]
本研究は,AIチャットボット,特にGPT 4.0,Claude 3 Opus,Gemini Ultra 1.0の信頼性を,救急部門における患者の苦情から疾患を予測するために検討した。
結果は、GPT 4.0は数ショットデータの増加で高い精度を達成し、Gemini Ultra 1.0は少ないサンプルで良好に動作し、Claude 3 Opusは一貫性のある性能を維持していることを示唆している。
論文 参考訳(メタデータ) (2024-05-21T22:00:13Z) - The impact of responding to patient messages with large language model
assistance [4.243020918808522]
ドキュメンテーションの負担はクリニックのバーンアウトに大きく貢献する。
多くの病院が電子カルテシステムに積極的に統合している。
我々は,患者の質問に対する臨床医の回答作成を支援するために,大規模言語モデルの有用性を初めて検討する。
論文 参考訳(メタデータ) (2023-10-26T18:03:46Z) - Assistive Chatbots for healthcare: a succinct review [0.0]
AI対応技術に焦点が当てられているのは、人間と機械の相互作用の質を高める可能性があるからだ。
患者の安全とデータ保護に関して、この技術に対する信頼の欠如がある。
患者は自然言語処理スキルに不満を表明している。
論文 参考訳(メタデータ) (2023-08-08T10:35:25Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。