論文の概要: 30DayGen: Leveraging LLMs to Create a Content Corpus for Habit Formation
- arxiv url: http://arxiv.org/abs/2505.02851v1
- Date: Fri, 02 May 2025 08:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.034347
- Title: 30DayGen: Leveraging LLMs to Create a Content Corpus for Habit Formation
- Title(参考訳): 30DayGen: LLMを活用してハビット形成のためのコンテンツコーパスを作る
- Authors: Franklin Zhang, Sonya Zhang, Alon Halevy,
- Abstract要約: 30 Day Meは、大規模言語モデル(LLM)を活用して、ユーザが目標を管理可能な実行可能なステップに分割し、進捗を追跡するための習慣形成アプリケーションである。
30DAYGENは15K以上のWebページから得られた3,531のユニークな30日間のチャレンジを生成し、ユーザ定義の目標に沿ったチャレンジアイデアのランタイム検索を可能にする。
- 参考スコア(独自算出の注目度): 1.33134751838052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present 30 Day Me, a habit formation application that leverages Large Language Models (LLMs) to help users break down their goals into manageable, actionable steps and track their progress. Central to the app is the 30DAYGEN system, which generates 3,531 unique 30-day challenges sourced from over 15K webpages, and enables runtime search of challenge ideas aligned with user-defined goals. We showcase how LLMs can be harnessed to rapidly construct domain specific content corpora for behavioral and educational purposes, and propose a practical pipeline that incorporates effective LLM enhanced approaches for content generation and semantic deduplication.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を活用する習慣形成アプリケーションである30 Day Meを紹介する。
アプリの中心は30DAYGENシステムで、15K以上のWebページから3,531のユニークな30日間のチャレンジを生成し、ユーザ定義の目標に沿ったチャレンジアイデアのランタイム検索を可能にする。
本稿では,LLMの動作と教育目的のために,ドメイン固有のコンテンツコーパスを迅速に構築する方法について紹介し,コンテンツ生成とセマンティックデデューズのための効果的なLLM拡張アプローチを取り入れた実用的なパイプラインを提案する。
関連論文リスト
- Words as Beacons: Guiding RL Agents with High-Level Language Prompts [6.7236795813629]
大型言語モデル(LLM)は「教師」として、複雑なタスクをサブゴールに分解することでエージェントの学習プロセスを導く。
LLMは、人間と同じような方法で、環境のために定義されたタスクを達成するためのサブゴールを提供することができる。
トレーニングフェーズの間のみLLMに問い合わせることができ、エージェントはLLMの介入なしに環境内で操作できる。
論文 参考訳(メタデータ) (2024-10-11T08:54:45Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。