論文の概要: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- arxiv url: http://arxiv.org/abs/2409.09662v1
- Date: Sun, 15 Sep 2024 08:25:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 19:48:24.054718
- Title: ExploreSelf: Fostering User-driven Exploration and Reflection on Personal Challenges with Adaptive Guidance by Large Language Models
- Title(参考訳): ExploreSelf: 大規模言語モデルによる適応的ガイダンスによる個人的課題に対するユーザ主導の探索と考察
- Authors: Inhwa Song, SoHyun Park, Sachin R. Pendse, Jessica Lee Schleider, Munmun De Choudhury, Young-Ho Kim,
- Abstract要約: We present ExploreSelf, a LLM-driven application designed to empower users to control their reflective journey。
以上の結果から,参加者は指導的支援と行動の自由のバランスに重きを置いていることがわかった。
本研究は, ユーザエンパワーメントを効果的に促進するLCM駆動型ツールの設計の意義を考察する。
- 参考スコア(独自算出の注目度): 15.910884179120577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Expressing stressful experiences in words is proven to improve mental and physical health, but individuals often disengage with writing interventions as they struggle to organize their thoughts and emotions. Reflective prompts have been used to provide direction, and large language models (LLMs) have demonstrated the potential to provide tailored guidance. Current systems often limit users' flexibility to direct their reflections. We thus present ExploreSelf, an LLM-driven application designed to empower users to control their reflective journey. ExploreSelf allows users to receive adaptive support through dynamically generated questions. Through an exploratory study with 19 participants, we examine how participants explore and reflect on personal challenges using ExploreSelf. Our findings demonstrate that participants valued the balance between guided support and freedom to control their reflective journey, leading to deeper engagement and insight. Building on our findings, we discuss implications for designing LLM-driven tools that promote user empowerment through effective reflective practices.
- Abstract(参考訳): 言葉でストレスに満ちた経験を表現することは精神的および身体的健康を改善することが証明されているが、個人は思考や感情を組織化するのに苦慮しているため、しばしば文章の介入に悩まされる。
リフレクティブプロンプトは方向を提供するために使われており、大きな言語モデル(LLM)は、調整されたガイダンスを提供する可能性を実証している。
現在のシステムでは、リフレクションを指示する柔軟性を制限していることが多い。
そこで我々は,LLM駆動型アプリケーションであるExploreSelfを紹介した。
ExploreSelfを使えば、動的に生成された質問を通じて適応的なサポートを受けられる。
参加者19名を対象にした探索的研究を通じて,探索セフを用いた個人的課題の探索と考察について検討した。
以上の結果から,参加者は指導的支援と行動の自由のバランスを重んじ,より深いエンゲージメントと洞察に繋がったことが示唆された。
本研究は, ユーザエンパワーメントを効果的に促進するLCM駆動型ツールの設計の意義を考察する。
関連論文リスト
- From Laws to Motivation: Guiding Exploration through Law-Based Reasoning and Rewards [12.698095783768322]
大規模言語モデル(LLM)と強化学習(RL)は、自律エージェントを構築するための強力なアプローチである。
ゲーム環境の基本法則をモデル化するために,インタラクションレコードから経験を抽出する手法を提案する。
論文 参考訳(メタデータ) (2024-11-24T15:57:53Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - On Targeted Manipulation and Deception when Optimizing LLMs for User Feedback [7.525470776920495]
人間のフィードバックを最大限にするためのトレーニングは、AIの逆インセンティブ構造を生み出します。
操作や騙しといった極端な形式の「フィードバックゲーム」が確実に学習されていることがわかった。
ユーザフィードバックなどゲーム可能なフィードバックソースをRLのターゲットとして使用するリスクを、私たちの結果が強調できることを願っています。
論文 参考訳(メタデータ) (2024-11-04T17:31:02Z) - Thinking LLMs: General Instruction Following with Thought Generation [56.30755438254918]
本稿では,人体データの追加を使わずに,そのような思考能力を持つ既存LLMの訓練方法を提案する。
各命令に対して、思考候補は判断モデルを用いて応答のみを評価し、好みの最適化によって最適化される。
この手法がAlpacaEvalやArena-Hardに優れたパフォーマンスをもたらすことを示すとともに,マーケティング,健康,一般知識といった非合理的なカテゴリーの考え方から得られる利益を示す。
論文 参考訳(メタデータ) (2024-10-14T15:38:56Z) - PersonaFlow: Boosting Research Ideation with LLM-Simulated Expert Personas [12.593617990325528]
研究アイデアを支援するためにペルソナシミュレーションを用いたLLMシステムであるペルソナフローを紹介する。
以上の結果から,複数のペルソナをアイデア作成中に使用すると,ユーザ認識の質が著しく向上することが示唆された。
ユーザのペルソナカスタマイズインタラクションは、生成したアイデアのコントロールとリコールの感覚を大幅に改善した。
論文 参考訳(メタデータ) (2024-09-19T07:54:29Z) - Supporting Self-Reflection at Scale with Large Language Models: Insights from Randomized Field Experiments in Classrooms [7.550701021850185]
本研究では,大規模言語モデル (LLMs) が学生の反省会後リフレクションに役立てる可能性について検討する。
大学コンピュータサイエンス科でランダムフィールド実験を2回行った。
論文 参考訳(メタデータ) (2024-06-01T02:41:59Z) - Towards Safety and Helpfulness Balanced Responses via Controllable Large Language Models [64.5204594279587]
安全性を優先するモデルでは、ユーザがエンゲージメントやアシストを減らし、利便性の優先順位付けが害をもたらす可能性がある。
大規模言語モデルにおける両方の属性を制御することにより,多様なユースケースにおける安全性と利便性のバランスをとることを提案する。
論文 参考訳(メタデータ) (2024-04-01T17:59:06Z) - Mirror: A Multiple-perspective Self-Reflection Method for Knowledge-rich Reasoning [18.5717357875955]
大規模言語モデル(LLM)は、外部リソースにアクセスすることなく知識に富んだ問題に対処する。
知識豊富な推論のための多重パースペクティブ自己回帰法であるMirrorを提案する。
論文 参考訳(メタデータ) (2024-02-22T20:57:17Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。