論文の概要: Conversational Health Agents: A Personalized LLM-Powered Agent Framework
- arxiv url: http://arxiv.org/abs/2310.02374v3
- Date: Thu, 7 Dec 2023 21:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 18:15:13.016163
- Title: Conversational Health Agents: A Personalized LLM-Powered Agent Framework
- Title(参考訳): 会話型健康エージェント:パーソナライズされたLLMエージェントフレームワーク
- Authors: Mahyar Abbasian, Iman Azimi, Amir M. Rahmani, Ramesh Jain
- Abstract要約: 会話型健康エージェント(英: Conversational Health Agents、CHA)は、援助、自己認識、診断などの医療サービスを提供する対話型システムである。
現在のCHAは、マルチステップの問題解決、共感的会話、マルチモーダルデータ分析に特化していない限られたエージェント機能を提供する。
ユーザの医療クエリに対してパーソナライズされた応答を生成するために,CHAを有効活用するLLMフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.5946909835546885
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversational Health Agents (CHAs) are interactive systems that provide
healthcare services, such as assistance, self-awareness, and diagnosis. Current
CHAs, especially those utilizing Large Language Models (LLMs), primarily focus
on conversation aspects. However, they offer limited agent capabilities
specifically lacking multi-step problem-solving, empathetic conversations, and
multimodal data analysis. Our aim is to overcome these limitations. In this
paper, we propose an LLM-powered framework to empower CHAs to generate a
personalized response for users' healthcare queries. This framework provides
critical thinking, knowledge acquisition, and problem-solving abilities by
integrating healthcare data sources, enabling multilingual and multimodal
conversations, and interacting with various user data analysis tools. We
illustrate the framework's proficiency in handling complex healthcare tasks via
a case study on stress level estimation, showcasing the agent's cognitive and
operational capabilities. Powered by our framework, the CHA can provide
appropriate responses, when the user inquires about their stress level. To
achieve this, it learns to collect photoplethysmogram signals, converts them
into heart rate variability, and interprets them as indicators of stress
levels.
- Abstract(参考訳): 会話型ヘルスエージェント(chas)は、援助、自己認識、診断などの医療サービスを提供する対話型システムである。
現在のCHA、特にLLM(Large Language Models)を利用するものは、主に会話の側面に焦点を当てています。
しかし、マルチステップ問題解決、共感的会話、マルチモーダルデータ分析を特に欠くエージェント能力は限られている。
私たちの目標はこれらの制限を克服することです。
本稿では,chasがユーザの医療クエリに対してパーソナライズされた応答を生成するための,llmを活用したフレームワークを提案する。
このフレームワークは、医療データソースの統合、多言語およびマルチモーダル会話の実現、およびさまざまなユーザデータ分析ツールとのインタラクションにより、批判的思考、知識獲得、問題解決能力を提供する。
ストレスレベル推定を事例として,複雑な医療タスクの処理におけるフレームワークの習熟度を示し,エージェントの認知的・操作的能力を示す。
私たちのフレームワークによって、ユーザがストレスレベルを問うとき、chaは適切なレスポンスを提供することができます。
これを実現するために、光胸腺画像信号を収集し、心拍変動に変換し、ストレスレベルの指標として解釈する。
関連論文リスト
- AgentScope: A Flexible yet Robust Multi-Agent Platform [66.61478569048477]
AgentScopeは、メッセージ交換をコアコミュニケーションメカニズムとする、開発者中心のマルチエージェントプラットフォームである。
堅牢で柔軟なマルチエージェントアプリケーションを目指して、AgentScopeはビルトインとカスタマイズ可能なフォールトトレランスメカニズムを提供する。
論文 参考訳(メタデータ) (2024-02-21T04:11:28Z) - Exploring Interaction Patterns for Debugging: Enhancing Conversational
Capabilities of AI-assistants [18.53732314023887]
大規模言語モデル(LLM)は、プログラマが様々なソフトウェア開発タスクの自然言語説明を得ることを可能にする。
LLMはしばしば十分な文脈なしに行動し、暗黙の仮定や不正確な反応を引き起こす。
本稿では,対話パターンと会話分析からインスピレーションを得て,デバッグのための対話型AIアシスタントRobinを設計する。
論文 参考訳(メタデータ) (2024-02-09T07:44:27Z) - SpeechAgents: Human-Communication Simulation with Multi-Modal
Multi-Agent Systems [53.94772445896213]
大規模言語モデル(LLM)に基づくマルチエージェントシステムは,人間の社会をシミュレートする上で有望な性能を示した。
本研究では,マルチモーダルLLMに基づくマルチエージェントシステムであるSpeechAgentsを提案する。
論文 参考訳(メタデータ) (2024-01-08T15:01:08Z) - Exploring Large Language Model based Intelligent Agents: Definitions,
Methods, and Prospects [32.91556128291915]
本稿では, シングルエージェントおよびマルチエージェントシステムにおける知的エージェントの詳細な概要を提供するため, 現在の研究状況について調査する。
定義、研究フレームワーク、その構成、認知と計画方法、ツール利用、環境フィードバックに対する反応などの基礎的な構成要素を網羅する。
我々は、AIと自然言語処理の進化の展望を考慮し、LLMベースのエージェントの展望を思い浮かべて結論付ける。
論文 参考訳(メタデータ) (2024-01-07T09:08:24Z) - Large Language Model Enhanced Multi-Agent Systems for 6G Communications [94.45712802626794]
本稿では,自然言語を用いたコミュニケーション関連タスクを解くための,カスタマイズされたコミュニケーション知識とツールを備えたマルチエージェントシステムを提案する。
セマンティック通信システムの設計により,提案方式の有効性を検証した。
論文 参考訳(メタデータ) (2023-12-13T02:35:57Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation [61.455159391215915]
AutoGenはオープンソースのフレームワークで、複数のエージェントを介してLLMアプリケーションを構築することができる。
AutoGenエージェントはカスタマイズ可能で、変換可能で、LLM、ヒューマンインプット、ツールの組み合わせを使った様々なモードで操作できる。
論文 参考訳(メタデータ) (2023-08-16T05:57:52Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - GLM-Dialog: Noise-tolerant Pre-training for Knowledge-grounded Dialogue
Generation [21.91914619107555]
GLM-Dialogは、中国語で知識に基づく会話ができる10Bパラメータを持つ大規模言語モデル(LLM)である。
我々は,オープンソースモデルと信頼性のある対話評価システムの開発を促進するために,評価プラットフォームをオンラインで提供します。
論文 参考訳(メタデータ) (2023-02-28T08:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。