論文の概要: OnRL-RAG: Real-Time Personalized Mental Health Dialogue System
- arxiv url: http://arxiv.org/abs/2504.02894v2
- Date: Wed, 16 Apr 2025 18:42:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:34:35.403716
- Title: OnRL-RAG: Real-Time Personalized Mental Health Dialogue System
- Title(参考訳): OnRL-RAG:リアルタイムメンタルヘルス対話システム
- Authors: Ahsan Bilal, Beiyu Lin,
- Abstract要約: メンタルヘルス問題に対する応答システムの検出とパーソナライズを行うオンライン強化学習ベースRetrieval-Augmented Generationシステムを提案する。
GPT-4o, GPT-4o-mini, Gemini-1.5, GPT-3.5, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-4o, GPT-1.5, GPT-3.5, GPT-4o, GPT-4o, GPT-4o, GPT-4o, GPT-3.5, GPT-3.5, GPT-
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License:
- Abstract: Large language models (LLMs) have been widely used for various tasks and applications. However, LLMs and fine-tuning are limited to the pre-trained data. For example, ChatGPT's world knowledge until 2021 can be outdated or inaccurate. To enhance the capabilities of LLMs, Retrieval-Augmented Generation (RAG), is proposed to augment LLMs with additional, new, latest details and information to LLMs. While RAG offers the correct information, it may not best present it, especially to different population groups with personalizations. Reinforcement Learning from Human Feedback (RLHF) adapts to user needs by aligning model responses with human preference through feedback loops. In real-life applications, such as mental health problems, a dynamic and feedback-based model would continuously adapt to new information and offer personalized assistance due to complex factors fluctuating in a daily environment. Thus, we propose an Online Reinforcement Learning-based Retrieval-Augmented Generation (OnRL-RAG) system to detect and personalize the responding systems to mental health problems, such as stress, anxiety, and depression. We use an open-source dataset collected from 2028 College Students with 28 survey questions for each student to demonstrate the performance of our proposed system with the existing systems. Our system achieves superior performance compared to standard RAG and simple LLM via GPT-4o, GPT-4o-mini, Gemini-1.5, and GPT-3.5. This work would open up the possibilities of real-life applications of LLMs for personalized services in the everyday environment. The results will also help researchers in the fields of sociology, psychology, and neuroscience to align their theories more closely with the actual human daily environment.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々なタスクやアプリケーションに広く使われている。
しかし、LLMと微調整は事前訓練されたデータに限られている。
例えば、2021年までのChatGPTの世界知識は時代遅れまたは不正確である。
LLMの能力を高めるため、LLMに新たな最新の詳細情報と情報を追加してLLMを増強するためにRAG(Retrieval-Augmented Generation)を提案する。
RAGは正しい情報を提供しているが、特にパーソナライズされた異なる集団にその情報を提示するのが最善ではないかもしれない。
Reinforcement Learning from Human Feedback (RLHF) は、フィードバックループを通じて、モデル応答と人間の嗜好を整合させることによって、ユーザニーズに適応する。
メンタルヘルス問題のような現実の応用では、動的でフィードバックに基づくモデルは、新しい情報に継続的に適応し、日々の環境に変動する複雑な要因のためにパーソナライズされた支援を提供する。
そこで本稿では, ストレス, 不安, 抑うつなどのメンタルヘルス問題に対する応答システムの検出とパーソナライズを行うオンライン強化学習ベースRetrieval-Augmented Generation(OnRL-RAG)システムを提案する。
既存のシステムで提案システムの性能を実証するために,2028人の大学生から収集したオープンソースデータセットを用いて,28名の学生を対象にした調査を行った。
GPT-4o, GPT-4o-mini, Gemini-1.5, GPT-3.5, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-3.5, GPT-4o, GPT-4o, GPT-4o, GPT-1.5, GPT-3.5, GPT-4o, GPT-4o, GPT-4o, GPT-4o, GPT-1.5, GPT-3.5, GPT-3.5, GPT-3.5, GPT-4o, GPT-4o, GPT-io, GPT-3.5, GPT-3.5, GPT-3.5, GPT-4o, GPT-3.5, G
この研究は、日々の環境においてパーソナライズされたサービスにLLMの現実的な応用の可能性を広げるものである。
この結果は、社会学、心理学、神経科学の研究者が理論を実際の人間の日常生活環境とより密に一致させるのに役立つ。
関連論文リスト
- From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Agentic Society: Merging skeleton from real world and texture from Large Language Model [4.740886789811429]
本稿では,人口統計データと大規模言語モデルを利用して仮想人口を生成する新しい枠組みについて検討する。
本手法は,社会科学実験において,多様な人間の行動のシミュレーションに不可欠な多様性のあるペルソナを生産することを示す。
しかし, 評価結果から, 現在のLSMの能力に限界があるため, 統計的真理性の弱い兆候しか得られないことが示唆された。
論文 参考訳(メタデータ) (2024-09-02T08:28:19Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - FreshLLMs: Refreshing Large Language Models with Search Engine
Augmentation [92.43001160060376]
本研究では,現在の世界知識をテストする質問に答える文脈において,大規模言語モデル(LLM)の事実性について検討する。
多様な質問や回答のタイプを含む新しい動的QAベンチマークであるFreshQAを紹介する。
我々は,2モード評価法により,閉じたLLMとオープンソースのLLMの多種多様な配列をベンチマークし,その正しさと幻覚の両面を計測する。
これらの結果に触発されたFreshPromptは、FreshQA上でのLLMの性能を大幅に向上させる単純な数ショットプロンプトである。
論文 参考訳(メタデータ) (2023-10-05T00:04:12Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。