論文の概要: ZzzGPT: An Interactive GPT Approach to Enhance Sleep Quality
- arxiv url: http://arxiv.org/abs/2310.16242v1
- Date: Tue, 24 Oct 2023 23:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 17:38:01.778319
- Title: ZzzGPT: An Interactive GPT Approach to Enhance Sleep Quality
- Title(参考訳): ZzzGPT:睡眠の質を高めるインタラクティブGPTアプローチ
- Authors: Yonchanok Khaokaew, Thuc Hanh Nguyen, Kaixin Ji, Hiruni Kegalle,
Marwah Alaofi
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いた2段階のフレームワークを導入し,動作可能なフィードバックで正確な睡眠予測を行う。
われわれのアプローチは、高度な機械学習とユーザ中心の設計を融合させ、科学的精度と実用性をブレンドする。
- 参考スコア(独自算出の注目度): 2.995722396292512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's world, sleep quality is pivotal for overall well-being. While
wearable sensors offer real-time monitoring, they often lack actionable
insights, leading to user abandonment. This paper delves into the role of
technology in understanding sleep patterns. We introduce a two-stage framework,
utilizing Large Language Models (LLMs), aiming to provide accurate sleep
predictions with actionable feedback. Leveraging the GLOBEM dataset and
synthetic data from LLMs, we highlight enhanced results with models like
XGBoost. Our approach merges advanced machine learning with user-centric
design, blending scientific accuracy with practicality.
- Abstract(参考訳): 今日の世界では、睡眠の質は全体の幸福に欠かせない。
ウェアラブルセンサーはリアルタイムのモニタリングを提供するが、アクション可能な洞察を欠くことが多く、ユーザの放棄につながる。
本稿では,睡眠パターンの理解における技術の役割について述べる。
本研究では,大規模言語モデル(llm)を活用した2段階フレームワークを導入し,動作可能なフィードバックによる正確な睡眠予測を実現する。
GLOBEMデータセットとLLMからの合成データを活用して、XGBoostのようなモデルによる強化結果を強調する。
本手法は,高度な機械学習とユーザ中心設計を融合し,科学的正確性と実用性を融合する。
関連論文リスト
- Closer Look at Efficient Inference Methods: A Survey of Speculative Decoding [1.3479499607624648]
投機的復号化は、ドラフトと検証という2段階のフレームワークを導入することでボトルネックに対処する。
より小さく効率的なモデルが予備のドラフトを生成し、より大きくより洗練されたモデルによって洗練される。
本稿では、投機的復号法を包括的に調査し、それらをドラフト中心およびモデル中心のアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-20T09:46:30Z) - Fine-Grained Verifiers: Preference Modeling as Next-token Prediction in Vision-Language Alignment [57.0121616203175]
本研究では,視覚言語アライメントを改善するための細粒度検証器として,モデル自身のビジュアルエンコーダを利用する新たな自己アライメント手法であるFiSAOを提案する。
ビジョンエンコーダからのトークンレベルのフィードバックを活用することで、FiSAOは視覚言語アライメントを大幅に改善する。
論文 参考訳(メタデータ) (2024-10-18T03:34:32Z) - Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models [46.09562860220433]
暗黙のフィードバック(特に眼球追跡(ET)データ)をReward Model(RM)に統合する新しいフレームワークであるGazeRewardを紹介します。
提案手法は、確立された人間の嗜好データセット上でのRMの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T13:24:56Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Adapting LLMs for Efficient Context Processing through Soft Prompt Compression [1.1550486371582305]
本稿では,大規模言語モデルを合理化された文脈処理のために戦略的に調整する,革新的なフレームワークを提案する。
我々の手法はSoftPromptCompと呼ばれ、動的に生成されたソフトプロンプトで自然言語をアマルガメイトし、簡潔でセマンティックに頑健な文脈の描写をフォージする。
我々は,我々のフレームワークが計算オーバーヘッドを著しく減らし,LLMの有効性を様々なベンチマークで向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-07T15:44:20Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Towards Efficient Generative Large Language Model Serving: A Survey from
Algorithms to Systems [14.355768064425598]
生成型大規模言語モデル(LLM)が最前線に立ち、データとのインタラクション方法に革命をもたらします。
しかし、これらのモデルをデプロイする際の計算強度とメモリ消費は、効率性の観点から大きな課題を呈している。
本研究は,機械学習システム(MLSys)研究の観点から,効率的なLCM提供手法の必要性について考察する。
論文 参考訳(メタデータ) (2023-12-23T11:57:53Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - CLIP-based Synergistic Knowledge Transfer for Text-based Person
Retrieval [66.93563107820687]
個人検索(TPR)のためのCLIPベースのSynergistic Knowledge Transfer(CSKT)アプローチを提案する。
入力側でCLIPの知識を探索するために、まず、テキスト・ツー・イメージと画像・ツー・テキストの双方向プロンプトと結合プロンプトによって構築された双方向プロンプト転送(BPT)モジュールを提案する。
CSKTは、トレーニングパラメータがモデル全体の7.4%を占めるだけで、3つのベンチマークデータセットで最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2023-09-18T05:38:49Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。