論文の概要: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- arxiv url: http://arxiv.org/abs/2409.09662v2
- Date: Tue, 17 Sep 2024 14:44:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 13:22:58.031453
- Title: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- Title(参考訳): ExploreSelf: 大規模言語モデルによる適応的ガイダンスによる個人的課題に対するユーザ主導の探索と考察
- Authors: Inhwa Song, SoHyun Park, Sachin R. Pendse, Jessica Lee Schleider, Munmun De Choudhury, Young-Ho Kim,
- Abstract要約: We present ExploreSelf, a LLM-driven application designed to empower users to control their reflective journey。
以上の結果から,参加者は指導的支援と行動の自由のバランスに重きを置いていることがわかった。
本研究は, ユーザエンパワーメントを効果的に促進するLCM駆動型ツールの設計の意義を考察する。
- 参考スコア(独自算出の注目度): 15.910884179120577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Expressing stressful experiences in words is proven to improve mental and physical health, but individuals often disengage with writing interventions as they struggle to organize their thoughts and emotions. Reflective prompts have been used to provide direction, and large language models (LLMs) have demonstrated the potential to provide tailored guidance. Current systems often limit users' flexibility to direct their reflections. We thus present ExploreSelf, an LLM-driven application designed to empower users to control their reflective journey. ExploreSelf allows users to receive adaptive support through dynamically generated questions. Through an exploratory study with 19 participants, we examine how participants explore and reflect on personal challenges using ExploreSelf. Our findings demonstrate that participants valued the balance between guided support and freedom to control their reflective journey, leading to deeper engagement and insight. Building on our findings, we discuss implications for designing LLM-driven tools that promote user empowerment through effective reflective practices.
- Abstract(参考訳): 言葉でストレスに満ちた経験を表現することは精神的および身体的健康を改善することが証明されているが、個人は思考や感情を組織化するのに苦慮しているため、しばしば文章の介入に悩まされる。
リフレクティブプロンプトは方向を提供するために使われており、大きな言語モデル(LLM)は、調整されたガイダンスを提供する可能性を実証している。
現在のシステムでは、リフレクションを指示する柔軟性を制限していることが多い。
そこで我々は,LLM駆動型アプリケーションであるExploreSelfを紹介した。
ExploreSelfを使えば、動的に生成された質問を通じて適応的なサポートを受けられる。
参加者19名を対象にした探索的研究を通じて,探索セフを用いた個人的課題の探索と考察について検討した。
以上の結果から,参加者は指導的支援と行動の自由のバランスを重んじ,より深いエンゲージメントと洞察に繋がったことが示唆された。
本研究は, ユーザエンパワーメントを効果的に促進するLCM駆動型ツールの設計の意義を考察する。
関連論文リスト
- I Need Help! Evaluating LLM's Ability to Ask for Users' Support: A Case Study on Text-to-SQL Generation [60.00337758147594]
性能改善とユーザ負担のトレードオフを評価する指標を提案する。
実験の結果、外部からのフィードバックがなければ、多くのLCMは追加的なサポートの必要性を認識するのに苦労していることがわかった。
論文 参考訳(メタデータ) (2024-07-20T06:12:29Z) - Supporting Self-Reflection at Scale with Large Language Models: Insights from Randomized Field Experiments in Classrooms [7.550701021850185]
本研究では,大規模言語モデル (LLMs) が学生の反省会後リフレクションに役立てる可能性について検討する。
大学コンピュータサイエンス科でランダムフィールド実験を2回行った。
論文 参考訳(メタデータ) (2024-06-01T02:41:59Z) - Sunnie: An Anthropomorphic LLM-Based Conversational Agent for Mental Well-Being Activity Recommendation [25.221104027934437]
精神福祉支援における長年の課題は、人々が心理的に有益な活動を採用するのを嫌うことである。
スニー(Sunnie)は、多ターン会話による幸福なサポートを提供するために設計された人間型会話エージェントである。
論文 参考訳(メタデータ) (2024-05-22T16:30:24Z) - Towards Safety and Helpfulness Balanced Responses via Controllable Large Language Models [64.5204594279587]
安全性を優先するモデルでは、ユーザがエンゲージメントやアシストを減らし、利便性の優先順位付けが害をもたらす可能性がある。
大規模言語モデルにおける両方の属性を制御することにより,多様なユースケースにおける安全性と利便性のバランスをとることを提案する。
論文 参考訳(メタデータ) (2024-04-01T17:59:06Z) - Mirror: A Multiple-perspective Self-Reflection Method for Knowledge-rich Reasoning [18.5717357875955]
大規模言語モデル(LLM)は、外部リソースにアクセスすることなく知識に富んだ問題に対処する。
知識豊富な推論のための多重パースペクティブ自己回帰法であるMirrorを提案する。
論文 参考訳(メタデータ) (2024-02-22T20:57:17Z) - Predicting challenge moments from students' discourse: A comparison of
GPT-4 to two traditional natural language processing approaches [0.3826704341650507]
本研究では,3つの異なる自然言語処理モデルを活用する可能性について検討する。
専門知識ルールベースモデル,教師付き機械学習モデル,言語モデル(LLM)について検討した。
その結果,教師付きMLとLLMのアプローチは両タスクとも良好に動作したことがわかった。
論文 参考訳(メタデータ) (2024-01-03T11:54:30Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Revisiting the Reliability of Psychological Scales on Large Language
Models [66.31055885857062]
本研究では,人格評価を大規模言語モデル(LLM)に適用する際の信頼性について検討する。
LLMのパーソナライズに光を当てることで、この分野での今後の探索の道を開くことに努める。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Large Language Models for User Interest Journeys [14.219969535206861]
大規模言語モデル(LLM)は、自然言語の理解と生成において印象的な能力を示している。
本稿は,LLMがユーザ活動を通じて理屈を定め,その興味を,人間と同じようなニュアンスで興味深い方法で表現することができることを論じる。
本稿では,まず関心旅行の個別抽出を行い,抽出した旅をLLMで要約する枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-24T18:40:43Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。