論文の概要: Online Training of Large Language Models: Learn while chatting
- arxiv url: http://arxiv.org/abs/2403.04790v1
- Date: Mon, 4 Mar 2024 10:00:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:15:58.216857
- Title: Online Training of Large Language Models: Learn while chatting
- Title(参考訳): 大規模言語モデルのオンライントレーニング:チャットしながら学ぶ
- Authors: Juhao Liang, Ziwei Wang, Zhuoheng Ma, Jianquan Li, Zhiyi Zhang,
Xiangbo Wu and Benyou Wang
- Abstract要約: 本稿では,「外部インタラクションを用いたオンライントレーニング」という新たなインタラクションパラダイムを紹介し,永続的かつリアルタイムなモデル更新と個人のカスタマイズの柔軟性を融合させる。
- 参考スコア(独自算出の注目度): 23.995637621755083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models(LLMs) have dramatically revolutionized the field of
Natural Language Processing(NLP), offering remarkable capabilities that have
garnered widespread usage. However, existing interaction paradigms between LLMs
and users are constrained by either inflexibility, limitations in
customization, or a lack of persistent learning. This inflexibility is
particularly evident as users, especially those without programming skills,
have restricted avenues to enhance or personalize the model. Existing
frameworks further complicate the model training and deployment process due to
their computational inefficiencies and lack of user-friendly interfaces. To
overcome these challenges, this paper introduces a novel interaction
paradigm-'Online Training using External Interactions'-that merges the benefits
of persistent, real-time model updates with the flexibility for individual
customization through external interactions such as AI agents or online/offline
knowledge bases.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語処理(NLP)の分野を劇的に革新させ、広く使われている優れた能力を提供している。
しかしながら、LLMとユーザ間の既存の相互作用パラダイムは、柔軟性、カスタマイズの制限、永続的な学習の欠如によって制約される。
この柔軟性は特に顕著であり、特にプログラミングスキルを持たないユーザーは、モデルを拡張またはパーソナライズするための道に制限を加えている。
既存のフレームワークは、計算の非効率さとユーザフレンドリなインターフェースの欠如により、モデルトレーニングとデプロイメントプロセスをさらに複雑にする。
これらの課題を克服するために、AIエージェントやオンライン/オフラインの知識ベースといった外部インタラクションによる個人カスタマイズの柔軟性と、永続的でリアルタイムなモデル更新の利点を融合した「外部インタラクションを用いたオンライントレーニング」という新しいインタラクションパラダイムを導入する。
関連論文リスト
- Adaptive Self-Supervised Learning Strategies for Dynamic On-Device LLM Personalization [3.1944843830667766]
大規模言語モデル(LLM)は私たちがテクノロジと対話する方法に革命をもたらしたが、個々のユーザの好みに対するパーソナライズは依然として大きな課題である。
本稿では,LSMを動的にパーソナライズするために自己指導型学習技術を利用する適応型自己監督学習戦略(ASLS)を提案する。
論文 参考訳(メタデータ) (2024-09-25T14:35:06Z) - Enabling Real-Time Conversations with Minimal Training Costs [61.80370154101649]
本稿では,2つの言語モデルに対して,最小限の訓練を要し,2つの言語能力を持つ新しい重複復号法を提案する。
実験結果から,本手法はトレーニングコストの最小化とともに,ユーザとAIのインタラクションの自然性と人間的類似性を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-09-18T06:27:26Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - MoExtend: Tuning New Experts for Modality and Task Extension [61.29100693866109]
MoExtendは、Mixture-of-Experts (MoE)モデルのモダリティ適応と拡張を効率化する効果的なフレームワークである。
MoExtendは、新しいエキスパートをトレーニング済みのMoEモデルにシームレスに統合し、トレーニング済みのモデルをチューニングすることなく、新しい知識を提供する。
論文 参考訳(メタデータ) (2024-08-07T02:28:37Z) - LEGENT: Open Platform for Embodied Agents [60.71847900126832]
LEGENTはLarge Language Models (LLM) とLarge Multimodal Models (LMM) を用いたエンボディエージェントを開発するためのオープンでスケーラブルなプラットフォームである。
LEGENTはリッチでインタラクティブな3D環境を提供し、コミュニケーション可能でアクション可能なエージェントをユーザフレンドリーなインターフェースと組み合わせている。
実験では、EGENT生成データに基づいて訓練された胚性視覚言語モデルが、エンボディタスクにおいてGPT-4Vを超える。
論文 参考訳(メタデータ) (2024-04-28T16:50:12Z) - Prompt-to-OS (P2OS): Revolutionizing Operating Systems and
Human-Computer Interaction with Integrated AI Generative Models [10.892991111926573]
本稿では,従来のオペレーティングシステムの概念に革命をもたらす,人間とコンピュータのインタラクションのためのパラダイムを提案する。
この革新的なフレームワークでは、マシンに発行されるユーザリクエストは、生成AIモデルの相互接続エコシステムによって処理される。
このビジョンの概念は、プライバシ、セキュリティ、信頼性、生成モデルの倫理的利用など、重要な課題を提起する。
論文 参考訳(メタデータ) (2023-10-07T17:16:34Z) - In-context Interference in Chat-based Large Language Models [8.197259049834038]
大きな言語モデル(LLM)は、その印象的な能力と世界の膨大な知識により、社会に大きな影響を与えた。
ブラックボックスのシナリオでこれらのモデルと対話できるさまざまなアプリケーションやツールが作成されている。
本稿では,このモデルがコンテキスト内を連続的に流れる情報間の干渉にどのように悩まされるかを示し,学習済みの知識を忘れる原因となる。
論文 参考訳(メタデータ) (2023-09-22T09:18:55Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - Sparsity-aware neural user behavior modeling in online interaction
platforms [2.4036844268502766]
ユーザ行動モデリングのための一般化可能なニューラル表現学習フレームワークを開発する。
問題設定は、トランスダクティブおよびインダクティブな学習シナリオにまたがる。
ユーザの振る舞いを反映した情報のさまざまな側面を活用して、大規模にパーソナライズされた推論を可能にする。
論文 参考訳(メタデータ) (2022-02-28T00:27:11Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。