論文の概要: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- arxiv url: http://arxiv.org/abs/2409.09662v3
- Date: Wed, 05 Feb 2025 17:41:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 18:38:29.100949
- Title: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- Title(参考訳): ExploreSelf: 大規模言語モデルによる適応的ガイダンスによる個人的課題に対するユーザ主導の探索と考察
- Authors: Inhwa Song, SoHyun Park, Sachin R. Pendse, Jessica Lee Schleider, Munmun De Choudhury, Young-Ho Kim,
- Abstract要約: リフレクティブプロンプトは方向を提供するために使われており、大きな言語モデル(LLM)は、調整されたガイダンスを提供する可能性を実証している。
We present ExploreSelf, a LLM-driven application designed to empower users to control their reflective journey。
- 参考スコア(独自算出の注目度): 15.910884179120577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Expressing stressful experiences in words is proven to improve mental and physical health, but individuals often disengage with writing interventions as they struggle to organize their thoughts and emotions. Reflective prompts have been used to provide direction, and large language models (LLMs) have demonstrated the potential to provide tailored guidance. However, current systems often limit users' flexibility to direct their reflections. We thus present ExploreSelf, an LLM-driven application designed to empower users to control their reflective journey, providing adaptive support through dynamically generated questions. Through an exploratory study with 19 participants, we examine how participants explore and reflect on personal challenges using ExploreSelf. Our findings demonstrate that participants valued the flexible navigation of adaptive guidance to control their reflective journey, leading to deeper engagement and insight. Building on our findings, we discuss the implications of designing LLM-driven tools that facilitate user-driven and effective reflection of personal challenges.
- Abstract(参考訳): 言葉でストレスに満ちた経験を表現することは精神的および身体的健康を改善することが証明されているが、個人は思考や感情を組織化するのに苦慮しているため、しばしば文章の介入に悩まされる。
リフレクティブプロンプトは方向を提供するために使われており、大きな言語モデル(LLM)は、調整されたガイダンスを提供する可能性を実証している。
しかしながら、現在のシステムでは、リフレクションを指示するユーザの柔軟性を制限していることが多い。
そこで本研究では,LLM駆動型アプリケーションであるExploreSelfについて紹介する。
参加者19名を対象にした探索的研究を通じて,探索セフを用いた個人的課題の探索と考察について検討した。
以上の結果から,参加者は適応誘導の柔軟なナビゲーションを重要視し,より深いエンゲージメントと洞察に繋がった。
本研究は,個人的課題に対するユーザ主導的かつ効果的な反映を促進するLCM駆動型ツールの設計の意義を考察する。
関連論文リスト
- Understanding Learner-LLM Chatbot Interactions and the Impact of Prompting Guidelines [9.834055425277874]
本研究は,学習者とAIの相互作用を,参加者が効果的なプロンプトの構造化指導を受ける教育実験を通して調査する。
ユーザの行動を評価し,有効性を促進するために,107人のユーザから642のインタラクションのデータセットを解析した。
我々の研究は、ユーザーが大規模言語モデルとどのように関わり、AI支援コミュニケーションを強化するための構造化された指導の役割についてより深く理解している。
論文 参考訳(メタデータ) (2025-04-10T15:20:43Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - Meta-Reflection: A Feedback-Free Reflection Learning Framework [57.14485943991588]
外部からのフィードバックを伴わずに単一の推論パスのみを必要とするフィードバックフリーリフレクション機構であるメタリフレクションを提案する。
過去のリフレクションを記憶し、取り出す人間の能力によって、メタリフレクションはコードブックに反射的な洞察を統合する。
実世界のシナリオにおけるメタリフレクションの実践性を徹底的に検討し,評価するために,E-Commerce Customer Intent Detectionという産業eコマースベンチマークを導入する。
論文 参考訳(メタデータ) (2024-12-18T12:20:04Z) - From Laws to Motivation: Guiding Exploration through Law-Based Reasoning and Rewards [12.698095783768322]
大規模言語モデル(LLM)と強化学習(RL)は、自律エージェントを構築するための強力なアプローチである。
ゲーム環境の基本法則をモデル化するために,インタラクションレコードから経験を抽出する手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T15:57:53Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - On Targeted Manipulation and Deception when Optimizing LLMs for User Feedback [7.525470776920495]
人間のフィードバックを最大限にするためのトレーニングは、AIの逆インセンティブ構造を生み出します。
操作や騙しといった極端な形式の「フィードバックゲーム」が確実に学習されていることがわかった。
ユーザフィードバックなどゲーム可能なフィードバックソースをRLのターゲットとして使用するリスクを、私たちの結果が強調できることを願っています。
論文 参考訳(メタデータ) (2024-11-04T17:31:02Z) - Thinking LLMs: General Instruction Following with Thought Generation [56.30755438254918]
本稿では,人体データの追加を使わずに,そのような思考能力を持つ既存LLMの訓練方法を提案する。
各命令に対して、思考候補は判断モデルを用いて応答のみを評価し、好みの最適化によって最適化される。
この手法がAlpacaEvalやArena-Hardに優れたパフォーマンスをもたらすことを示すとともに,マーケティング,健康,一般知識といった非合理的なカテゴリーの考え方から得られる利益を示す。
論文 参考訳(メタデータ) (2024-10-14T15:38:56Z) - PersonaFlow: Boosting Research Ideation with LLM-Simulated Expert Personas [12.593617990325528]
研究アイデアを支援するためにペルソナシミュレーションを用いたLLMシステムであるペルソナフローを紹介する。
以上の結果から,複数のペルソナをアイデア作成中に使用すると,ユーザ認識の質が著しく向上することが示唆された。
ユーザのペルソナカスタマイズインタラクションは、生成したアイデアのコントロールとリコールの感覚を大幅に改善した。
論文 参考訳(メタデータ) (2024-09-19T07:54:29Z) - Supporting Self-Reflection at Scale with Large Language Models: Insights from Randomized Field Experiments in Classrooms [7.550701021850185]
本研究では,大規模言語モデル (LLMs) が学生の反省会後リフレクションに役立てる可能性について検討する。
大学コンピュータサイエンス科でランダムフィールド実験を2回行った。
論文 参考訳(メタデータ) (2024-06-01T02:41:59Z) - Towards Safety and Helpfulness Balanced Responses via Controllable Large Language Models [64.5204594279587]
安全性を優先するモデルでは、ユーザがエンゲージメントやアシストを減らし、利便性の優先順位付けが害をもたらす可能性がある。
大規模言語モデルにおける両方の属性を制御することにより,多様なユースケースにおける安全性と利便性のバランスをとることを提案する。
論文 参考訳(メタデータ) (2024-04-01T17:59:06Z) - Mirror: A Multiple-perspective Self-Reflection Method for Knowledge-rich Reasoning [18.5717357875955]
大規模言語モデル(LLM)は、外部リソースにアクセスすることなく知識に富んだ問題に対処する。
知識豊富な推論のための多重パースペクティブ自己回帰法であるMirrorを提案する。
論文 参考訳(メタデータ) (2024-02-22T20:57:17Z) - Predicting challenge moments from students' discourse: A comparison of
GPT-4 to two traditional natural language processing approaches [0.3826704341650507]
本研究では,3つの異なる自然言語処理モデルを活用する可能性について検討する。
専門知識ルールベースモデル,教師付き機械学習モデル,言語モデル(LLM)について検討した。
その結果,教師付きMLとLLMのアプローチは両タスクとも良好に動作したことがわかった。
論文 参考訳(メタデータ) (2024-01-03T11:54:30Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。