論文の概要: Towards Personalized Intelligence at Scale
- arxiv url: http://arxiv.org/abs/2203.06668v1
- Date: Sun, 13 Mar 2022 14:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:11:57.592663
- Title: Towards Personalized Intelligence at Scale
- Title(参考訳): スケールにおけるパーソナライズドインテリジェンスを目指して
- Authors: Yiping Kang, Ashish Mahendra, Christopher Clarke, Lingjia Tang, Jason
Mars
- Abstract要約: 大規模にパーソナライズされたインテリジェンスを実現するために,新しいモデルアーキテクチャとトレーニング/推論フレームワークを導入する。
トレーニング中、基本LMは凍結され、PH内のパラメータのみが更新され、ユーザ毎にユニークである。
その結果、多くのユーザにわたってスケールする従来の微調整アプローチよりも、全体的なモデルサイズとトレーニングコストが大幅に小さくなります。
- 参考スコア(独自算出の注目度): 5.265714091953279
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Personalized Intelligence (PI) is the problem of providing customized AI
experiences tailored to each individual user. In many applications, PI is
preferred or even required. Existing personalization approaches involve
fine-tuning pre-trained models to create new customized models. However, these
approaches require a significant amount of computation to train, scaling with
model size and the number of users, inhibiting PI to be realized widely. In
this work, we introduce a novel model architecture and training/inference
framework to enable Personalized Intelligence at scale. We achieve this by
attaching a Personalization Head (PH) to pre-trained language models (LM).
During training, the base LMs are frozen and only the parameters in PH are
updated and are unique per user. This results in significantly smaller overall
model sizes and training cost than traditional fine-tuning approaches when
scaled across many users. We evaluate PHs on academia and industry-focused
datasets and show that the PHs outperform zeroshot baseline in F1 score and are
significantly more scalable than traditional fine-tuning approaches. We
identify key factors required for effective PH design and training.
- Abstract(参考訳): パーソナライズドインテリジェンス(PI)は、個々のユーザーに合わせてカスタマイズされたAIエクスペリエンスを提供する問題である。
多くのアプリケーションでは、PIが好まれる。
既存のパーソナライズアプローチには、カスタマイズされたモデルを作成するための、微調整済みのモデルが含まれる。
しかし、これらのアプローチではトレーニングにかなりの量の計算が必要であり、モデルサイズとユーザ数でスケーリングすることで、piを広く実現することを妨げる。
本研究では,大規模にパーソナライズされたインテリジェンスを実現するための新しいモデルアーキテクチャとトレーニング/推論フレームワークを提案する。
我々は、Personalization Head (PH) を事前訓練された言語モデル (LM) にアタッチすることでこれを実現する。
トレーニング中、基本LMは凍結され、PH内のパラメータのみが更新され、ユーザ毎にユニークである。
その結果、モデルのサイズやトレーニングコストは、多くのユーザにわたってスケールする従来の微調整アプローチよりも大幅に小さくなります。
我々は,学界および産業に焦点を絞ったデータセットにおけるphsを評価し,f1スコアのゼロショットベースラインよりもphsの方が優れており,従来の微調整アプローチよりもかなりスケーラブルであることを示した。
有効なPH設計とトレーニングに必要な重要な要素を同定する。
関連論文リスト
- Personalized Hierarchical Split Federated Learning in Wireless Networks [24.664469755746463]
本稿では、パーソナライズ性能の向上を目的とした、パーソナライズされた階層分割型フェデレーション学習(PHSFL)アルゴリズムを提案する。
まず、モデル分割と階層モデル集約がグローバルモデルに与える影響を理解するために、広範囲な理論的解析を行う。
グローバルモデルがトレーニングされると、各クライアントを微調整してパーソナライズされたモデルを取得します。
論文 参考訳(メタデータ) (2024-11-09T02:41:53Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - PEFT-U: Parameter-Efficient Fine-Tuning for User Personalization [9.594958534074074]
ユーザパーソナライズのためのNLPモデルの構築と評価のための新しいデータセットであるPEFT-Uベンチマークを紹介する。
多様なユーザ中心タスクのコンテキストにおいて、LLMを効率よくパーソナライズし、ユーザ固有の嗜好に適合させるという課題について検討する。
論文 参考訳(メタデータ) (2024-07-25T14:36:18Z) - An Emulator for Fine-Tuning Large Language Models using Small Language
Models [91.02498576056057]
本研究では,異なるスケールでの事前学習と微調整の結果を近似する分布から,エミュレート・ファインチューニング(EFT)を原理的かつ実用的なサンプリング法として導入する。
EFTは、追加トレーニングを伴わずに、有益性や無害性といった競合する行動特性をテスト時間で調整できることを示す。
最後に、LMアップスケーリングと呼ばれるエミュレートされたファインチューニングの特殊な場合において、小さなファインチューニングモデルと組み合わせることで、大きな事前学習モデルのリソース集約的なファインチューニングを回避する。
論文 参考訳(メタデータ) (2023-10-19T17:57:16Z) - ZooPFL: Exploring Black-box Foundation Models for Personalized Federated
Learning [95.64041188351393]
本稿では,限られた資源とパーソナライゼーションの両課題を解決しようと試みる。
個人化フェデレート学習におけるゼロ階最適化を用いたZOOPFLという手法を提案する。
計算コストの削減とパーソナライゼーションの向上を目的として,低次元およびクライアント固有の埋め込みを持つオートエンコーダを組み込む入力手術を提案する。
論文 参考訳(メタデータ) (2023-10-08T12:26:13Z) - Profit: Benchmarking Personalization and Robustness Trade-off in
Federated Prompt Tuning [40.16581292336117]
フェデレートラーニング(FL)の多くの応用において、クライアントはローカルデータを用いてパーソナライズされたモデルを求めているが、一般的なグローバルな知識を保持するという意味でも堅牢である。
フェデレーションシステムの設計において、このパーソナライゼーションとロバストネスのトレードオフをどのようにナビゲートするかを理解することは重要である。
論文 参考訳(メタデータ) (2023-10-06T23:46:33Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - FedDWA: Personalized Federated Learning with Dynamic Weight Adjustment [20.72576355616359]
本稿では,この問題を解決するために,emphFedDWA (Federated Learning with Dynamic Weight Adjustment) と呼ばれる新しいPFLアルゴリズムを提案する。
FedDWAは、クライアントから収集したモデルに基づいて、パーソナライズされたアグリゲーション重みを計算する。
我々は,5つの実データを用いて広範囲な実験を行い,FedDWAが通信トラフィックを大幅に削減し,最先端のアプローチよりもはるかに高いモデル精度を達成できることを実証した。
論文 参考訳(メタデータ) (2023-05-10T13:12:07Z) - eP-ALM: Efficient Perceptual Augmentation of Language Models [70.47962271121389]
本稿では,既存モデルの適応性を向上するための直接的な取り組みを提案し,認識を伴う言語モデルの拡張を提案する。
視覚言語タスクに事前訓練されたモデルを適用するための既存のアプローチは、その効率を妨げているいくつかの重要なコンポーネントに依存している。
総パラメータの99%以上を凍結し,1つの直線射影層のみをトレーニングし,1つのトレーニング可能なトークンのみを予測することにより,我々のアプローチ(eP-ALM)は,VQAとCaptioningの他のベースラインよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2023-03-20T19:20:34Z) - Federated Learning from Pre-Trained Models: A Contrastive Learning
Approach [43.893267526525904]
Federated Learning(FL)は、分散型クライアントがプライベートデータを共有せずに協調的に学習できる機械学習パラダイムである。
過剰な計算と通信要求は、現在のFLフレームワークに課題をもたらす。
本稿では、クライアントが複数の固定された事前学習モデルによって生成された表現を融合させることを共同で学習する軽量フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-21T03:16:57Z) - Large Language Models Can Be Strong Differentially Private Learners [70.0317718115406]
Differentially Private(DP)学習は、テキストの大規模なディープラーニングモデルを構築する上で、限られた成功を収めている。
この性能低下は,大規模な事前学習モデルを用いることで緩和可能であることを示す。
本稿では,DP-SGDにおけるクリッピングを,サンプルごとの勾配をインスタンス化せずに実行可能にするメモリ節約手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T01:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。