論文の概要: ZzzGPT: An Interactive GPT Approach to Enhance Sleep Quality
- arxiv url: http://arxiv.org/abs/2310.16242v2
- Date: Tue, 7 May 2024 00:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 20:13:36.771099
- Title: ZzzGPT: An Interactive GPT Approach to Enhance Sleep Quality
- Title(参考訳): ZzzGPT:睡眠の質を高めるインタラクティブGPTアプローチ
- Authors: Yonchanok Khaokaew, Kaixin Ji, Thuc Hanh Nguyen, Hiruni Kegalle, Marwah Alaofi, Hao Xue, Flora D. Salim,
- Abstract要約: 本稿では,Large Language Models (LLM) のパワーを活用した最先端フレームワークを提案する。
第一の目的は、行動可能なフィードバックと組み合わせた正確な睡眠予測を提供することで、既存のソリューションの限界に対処することである。
- 参考スコア(独自算出の注目度): 9.249102003239663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the intersection of technology and sleep pattern comprehension, presenting a cutting-edge two-stage framework that harnesses the power of Large Language Models (LLMs). The primary objective is to deliver precise sleep predictions paired with actionable feedback, addressing the limitations of existing solutions. This innovative approach involves leveraging the GLOBEM dataset alongside synthetic data generated by LLMs. The results highlight significant improvements, underlining the efficacy of merging advanced machine-learning techniques with a user-centric design ethos. Through this exploration, we bridge the gap between technological sophistication and user-friendly design, ensuring that our framework yields accurate predictions and translates them into actionable insights.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) のパワーを活用した最先端の2段階フレームワークを提案する。
第一の目的は、行動可能なフィードバックと組み合わせた正確な睡眠予測を提供することで、既存のソリューションの限界に対処することである。
この革新的なアプローチは、GLOBEMデータセットとLLMが生成した合成データを活用することである。
その結果,先進的な機械学習技術とユーザ中心の設計倫理を融合させることの有効性が明らかにされた。
この調査を通じて、技術的洗練とユーザフレンドリな設計のギャップを埋め、我々のフレームワークが正確な予測を導き、それらを実用的な洞察へと変換することを保証します。
関連論文リスト
- Dr.E Bridges Graphs with Large Language Models through Words [12.22063024099311]
本稿では,Dr.E(Deal-Residual Vector Quantized-Variational AutoEncoder)を用いたエンドツーエンドのモダリティ調整フレームワークを提案する。
このフレームワークは,大規模言語モデル(LLM)とのトークンレベルのアライメントを容易にするように設計されている。
標準GNNノード分類タスクの評価は、他の最先端手法と競合する性能を示す。
論文 参考訳(メタデータ) (2024-06-19T16:43:56Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Adapting LLMs for Efficient Context Processing through Soft Prompt Compression [1.1550486371582305]
本稿では,大規模言語モデルを合理化された文脈処理のために戦略的に調整する,革新的なフレームワークを提案する。
我々の手法はSoftPromptCompと呼ばれ、動的に生成されたソフトプロンプトで自然言語をアマルガメイトし、簡潔でセマンティックに頑健な文脈の描写をフォージする。
我々は,我々のフレームワークが計算オーバーヘッドを著しく減らし,LLMの有効性を様々なベンチマークで向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-07T15:44:20Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Towards Efficient Generative Large Language Model Serving: A Survey from
Algorithms to Systems [14.355768064425598]
生成型大規模言語モデル(LLM)が最前線に立ち、データとのインタラクション方法に革命をもたらします。
しかし、これらのモデルをデプロイする際の計算強度とメモリ消費は、効率性の観点から大きな課題を呈している。
本研究は,機械学習システム(MLSys)研究の観点から,効率的なLCM提供手法の必要性について考察する。
論文 参考訳(メタデータ) (2023-12-23T11:57:53Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - CLIP-based Synergistic Knowledge Transfer for Text-based Person
Retrieval [66.93563107820687]
個人検索(TPR)のためのCLIPベースのSynergistic Knowledge Transfer(CSKT)アプローチを提案する。
入力側でCLIPの知識を探索するために、まず、テキスト・ツー・イメージと画像・ツー・テキストの双方向プロンプトと結合プロンプトによって構築された双方向プロンプト転送(BPT)モジュールを提案する。
CSKTは、トレーニングパラメータがモデル全体の7.4%を占めるだけで、3つのベンチマークデータセットで最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2023-09-18T05:38:49Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。