論文の概要: ChainStream: An LLM-based Framework for Unified Synthetic Sensing
- arxiv url: http://arxiv.org/abs/2412.15240v1
- Date: Fri, 13 Dec 2024 08:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-29 08:00:19.841397
- Title: ChainStream: An LLM-based Framework for Unified Synthetic Sensing
- Title(参考訳): ChainStream: 統一合成センシングのためのLLMベースのフレームワーク
- Authors: Jiacheng Liu, Yuanchun Li, Liangyan Li, Yi Sun, Hao Wen, Xiangyu Li, Yao Guo, Yunxin Liu,
- Abstract要約: 我々は、自然言語を統合インターフェースとして使用し、個人データを処理し、ユーザコンテキストを感知することを提案する。
私たちの仕事は、大きな言語モデル(LLM)や他の生成モデルにインスパイアされています。
自然言語に基づくコンテキストセンシングの性能を評価するために,133のコンテキストセンシングタスクを含むベンチマークを作成する。
- 参考スコア(独自算出の注目度): 20.589289717423597
- License:
- Abstract: Many applications demand context sensing to offer personalized and timely services. Yet, developing sensing programs can be challenging for developers and using them is privacy-concerning for end-users. In this paper, we propose to use natural language as the unified interface to process personal data and sense user context, which can effectively ease app development and make the data pipeline more transparent. Our work is inspired by large language models (LLMs) and other generative models, while directly applying them does not solve the problem - letting the model directly process the data cannot handle complex sensing requests and letting the model write the data processing program suffers error-prone code generation. We address the problem with 1) a unified data processing framework that makes context-sensing programs simpler and 2) a feedback-guided query optimizer that makes data query more informative. To evaluate the performance of natural language-based context sensing, we create a benchmark that contains 133 context sensing tasks. Extensive evaluation has shown that our approach is able to automatically solve the context-sensing tasks efficiently and precisely. The code is opensourced at https://github.com/MobileLLM/ChainStream.
- Abstract(参考訳): 多くのアプリケーションは、パーソナライズされたタイムリーなサービスを提供するためにコンテキストセンシングを要求する。
しかし、センサープログラムの開発は開発者にとっては困難であり、それを使用することはエンドユーザのプライバシ保護である。
本稿では、自然言語をパーソナルデータ処理の統一インターフェースとして使用し、ユーザコンテキストを感知することで、アプリケーション開発を効果的に楽にし、データパイプラインをより透明にすることができることを提案する。
私たちの仕事は、大規模言語モデル(LLM)や他の生成モデルにインスパイアされていますが、直接適用しても、その問題は解決しません。
私たちはその問題に対処する
1)コンテキストセンシングプログラムをシンプルかつ容易にする統合データ処理フレームワーク
2) データクエリをより有益なものにするフィードバック誘導型クエリオプティマイザ。
自然言語に基づくコンテキストセンシングの性能を評価するために,133のコンテキストセンシングタスクを含むベンチマークを作成する。
広範に評価した結果,提案手法は文脈認識タスクを効率よく,かつ高精度に解決できることがわかった。
コードはhttps://github.com/MobileLLM/ChainStreamで公開されている。
関連論文リスト
- Generative Context Distillation [48.91617280112579]
Generative Context Distillation (GCD) は、ジョイントトレーニングアプローチを採用した軽量なプロンプト内在化手法である。
エージェントベースのアプリケーションシナリオにおいて,このアプローチが複雑なプロンプトを効果的に内部化することを示す。
論文 参考訳(メタデータ) (2024-11-24T17:32:20Z) - Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Making Task-Oriented Dialogue Datasets More Natural by Synthetically Generating Indirect User Requests [6.33281463741573]
間接ユーザ要求(IUR)は、ヒューマン・ヒューマン・タスク指向の対話において一般的であり、聞き手からの世界的知識と実践的推論を必要とする。
大きな言語モデル(LLM)はこれらの要求を効果的に処理できるが、仮想アシスタントにデプロイされる小さなモデルはリソースの制約のためにしばしば苦労する。
論文 参考訳(メタデータ) (2024-06-12T01:18:04Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - IR Design for Application-Specific Natural Language: A Case Study on
Traffic Data [29.50290358564987]
アプリケーション特化自然言語(ASNL)に対応する中間表現(IR)の設計を提案する。
提案したIR設計は,標準XMLフォーマットデータの直接使用と比較して40倍以上の高速化を実現することができる。
論文 参考訳(メタデータ) (2023-07-13T15:52:05Z) - Pathway: a fast and flexible unified stream data processing framework
for analytical and Machine Learning applications [7.850979932441607]
Pathwayは新しい統一データ処理フレームワークで、バウンドとアンバウンドのデータストリームの両方でワークロードを実行できる。
本稿では,本システムについて述べるとともに,バッチとストリーミングの両コンテキストにおいて,その性能を示すベンチマーク結果を示す。
論文 参考訳(メタデータ) (2023-07-12T08:27:37Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Pre-Training to Learn in Context [138.0745138788142]
言語モデルが文脈で学習するために明示的に訓練されていないため、コンテキスト内学習の能力は十分に活用されていない。
In-Context Learning のための PICL (Pre-training for In-Context Learning) を提案する。
実験の結果,PICLはベースラインよりも効率が高く,タスクの汎用性が高く,約4倍のパラメータを持つ言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-16T03:38:06Z) - Self-augmented Data Selection for Few-shot Dialogue Generation [18.794770678708637]
我々は,MR-to-Text生成問題に対処するために,自己学習フレームワークを採用する。
我々は,我々の生成モデルが最も不確実なデータを選択するための新しいデータ選択戦略を提案する。
論文 参考訳(メタデータ) (2022-05-19T16:25:50Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。