論文の概要: FiT: Parameter Efficient Few-shot Transfer Learning for Personalized and
Federated Image Classification
- arxiv url: http://arxiv.org/abs/2206.08671v1
- Date: Fri, 17 Jun 2022 10:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 13:04:12.536653
- Title: FiT: Parameter Efficient Few-shot Transfer Learning for Personalized and
Federated Image Classification
- Title(参考訳): FiT:パーソナライズ・フェデレーション画像分類のためのパラメータ効率の良いFew-shot Transfer Learning
- Authors: Aliaksandra Shysheya, John Bronskill, Massimiliano Patacchiola,
Sebastian Nowozin, Richard E Turner
- Abstract要約: 画像分類における要件を満たすFiLM Transfer (FiT) を開発した。
FiTは、大規模な画像データセットで事前トレーニングされた固定バックボーンの上に、自動的に設定されたNaive Bayes分類器を使用する。
本研究では, 最先端のBig Transfer (BiT) アルゴリズムよりも, ローショット, 挑戦的なVTAB-1kベンチマークにおいて, 高い分類精度が得られることを示す。
- 参考スコア(独自算出の注目度): 47.24770508263431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning systems are increasingly deployed in situations such as
personalization and federated learning where it is necessary to support i)
learning on small amounts of data, and ii) communication efficient distributed
training protocols. In this work we develop FiLM Transfer (FiT) which fulfills
these requirements in the image classification setting. FiT uses an
automatically configured Naive Bayes classifier on top of a fixed backbone that
has been pretrained on large image datasets. Parameter efficient FiLM layers
are used to modulate the backbone, shaping the representation for the
downstream task. The network is trained via an episodic fine-tuning protocol.
The approach is parameter efficient which is key for enabling few-shot
learning, inexpensive model updates for personalization, and communication
efficient federated learning. We experiment with FiT on a wide range of
downstream datasets and show that it achieves better classification accuracy
than the state-of-the-art Big Transfer (BiT) algorithm at low-shot and on the
challenging VTAB-1k benchmark, with fewer than 1% of the updateable parameters.
Finally, we demonstrate the parameter efficiency of FiT in distributed low-shot
applications including model personalization and federated learning where model
update size is an important performance metric.
- Abstract(参考訳): 最近のディープラーニングシステムは、パーソナライゼーションやフェデレーション学習といった、サポートが必要な状況にますます展開されている。
一 少量のデータについて学ぶこと、及び
二 通信効率のよい分散トレーニングプロトコル。
本研究では、画像分類設定においてこれらの要件を満たすFiLM Transfer(FiT)を開発する。
FiTは、大規模な画像データセットで事前トレーニングされた固定バックボーンの上に、自動的に設定されたNaive Bayes分類器を使用する。
パラメータ効率の良いFiLMレイヤを使用してバックボーンを変調し、下流タスクの表現を形成する。
ネットワークはエピソード微調整プロトコルを介して訓練される。
このアプローチはパラメータ効率が重要であり、少数ショット学習、パーソナライズのための安価なモデル更新、コミュニケーション効率のよいフェデレーション学習を可能にする。
我々は、幅広い下流データセットでfitを実験し、低ショットおよび挑戦的なvtab-1kベンチマークにおいて、更新可能なパラメータの1%未満で、最先端のbig transfer (bit)アルゴリズムよりも優れた分類精度を実現できることを示した。
最後に、モデルパーソナライゼーションやフェデレーション学習を含む分散ローショットアプリケーションにおいて、モデル更新サイズが重要なパフォーマンス指標となるFiTのパラメータ効率を示す。
関連論文リスト
- Fisher Information-based Efficient Curriculum Federated Learning with Large Language Models [43.26028399395612]
本稿では,2つの新しい手法を用いたフィッシャー情報に基づく効率的なカリキュラムフェデレート学習フレームワーク(FibecFed)を提案する。
まず,各装置内のデータを適応的にサンプリングし,FL微調整プロセスの有効性を向上させるための漁師情報に基づく手法を提案する。
第2に,グローバルアグリゲーションのための適切なレイヤとLoRAによるローカル更新のためのスパースパラメータを動的に選択する。
論文 参考訳(メタデータ) (2024-09-30T18:12:18Z) - Federated Learning of Large Language Models with Parameter-Efficient
Prompt Tuning and Adaptive Optimization [71.87335804334616]
フェデレートラーニング(FL)は、分散データとの協調モデルトレーニングを可能にする、有望なパラダイムである。
LLM(Large Language Models)のトレーニングプロセスは一般的に重要なパラメータの更新を引き起こす。
本稿では,性能と効率を同時に向上する効率的な部分的プロンプトチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T16:37:59Z) - Prototype-based HyperAdapter for Sample-Efficient Multi-task Tuning [30.251155072822055]
Prototype-based HyperAdapter (PHA)は、アダプタチューニングとハイパーネットワーク上に構築された新しいフレームワークである。
サンプル効率のよい条件付きモジュールを生成するために、インスタンスdenseレトリバーとプロトタイプのハイパーネットワークを導入する。
PHAは、トレーニング可能なパラメータ、ストリームタスクの精度、サンプル効率のトレードオフをより良くすることを示す。
論文 参考訳(メタデータ) (2023-10-18T02:42:17Z) - SLoRA: Federated Parameter Efficient Fine-Tuning of Language Models [28.764782216513037]
FL(Federated Learning)は、FLエッジクライアントの分散データとプライベートデータの恩恵を受けることができる。
異種データシナリオにおけるLoRAの重要な制約を克服するSLoRAという手法を提案する。
実験の結果,SLoRAは完全微調整に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-08-12T10:33:57Z) - Exploring Efficient Few-shot Adaptation for Vision Transformers [70.91692521825405]
そこで本稿では,Few-shot LearningタスクにおけるVTの微調整を容易にするトランスフォーマーチューニング(eTT)手法を提案する。
新しく発表されたAttentive Prefix Tuning(APT)とDomain Residual Adapter(DRA)の主な新機能
我々は,我々のモデルの有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-01-06T08:42:05Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。