論文の概要: Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation
- arxiv url: http://arxiv.org/abs/2001.04253v4
- Date: Tue, 9 Jun 2020 12:36:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:50:35.533048
- Title: Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation
- Title(参考訳): ユーザモデリングとレコメンデーションのための逐次行動からのパラメータ効率
- Authors: Fajie Yuan, Xiangnan He, Alexandros Karatzoglou, Liguang Zhang
- Abstract要約: 本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
- 参考スコア(独自算出の注目度): 111.44445634272235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inductive transfer learning has had a big impact on computer vision and NLP
domains but has not been used in the area of recommender systems. Even though
there has been a large body of research on generating recommendations based on
modeling user-item interaction sequences, few of them attempt to represent and
transfer these models for serving downstream tasks where only limited data
exists.
In this paper, we delve on the task of effectively learning a single user
representation that can be applied to a diversity of tasks, from cross-domain
recommendations to user profile predictions. Fine-tuning a large pre-trained
network and adapting it to downstream tasks is an effective way to solve such
tasks. However, fine-tuning is parameter inefficient considering that an entire
model needs to be re-trained for every new task. To overcome this issue, we
develop a parameter efficient transfer learning architecture, termed as
PeterRec, which can be configured on-the-fly to various downstream tasks.
Specifically, PeterRec allows the pre-trained parameters to remain unaltered
during fine-tuning by injecting a series of re-learned neural networks, which
are small but as expressive as learning the entire network. We perform
extensive experimental ablation to show the effectiveness of the learned user
representation in five downstream tasks. Moreover, we show that PeterRec
performs efficient transfer learning in multiple domains, where it achieves
comparable or sometimes better performance relative to fine-tuning the entire
model parameters. Codes and datasets are available at
https://github.com/fajieyuan/sigir2020_peterrec.
- Abstract(参考訳): 帰納的転送学習はコンピュータビジョンとnlpドメインに大きな影響を与えてきたが、レコメンダシステムの分野では使われていない。
ユーザとイテムのインタラクションシーケンスをモデル化したレコメンデーションを生成する研究が数多く行われているが、限られたデータしか存在しない下流のタスクにこれらのモデルを表現し、転送しようとする研究はほとんどない。
本稿では,クロスドメインレコメンデーションからユーザプロファイル予測に至るまで,タスクの多様性に適用可能な単一ユーザ表現を効果的に学習するタスクについて検討する。
大規模なトレーニング済みネットワークを微調整し、下流タスクに適用することは、そのようなタスクを解決する効果的な方法である。
しかし、細調整はパラメータ非効率であり、新しいタスクごとにモデル全体を再トレーニングする必要がある。
この問題を克服するために,パラメータ効率のよい転送学習アーキテクチャであるPeterRecを開発し,様々な下流タスクにオンザフライで設定できる。
具体的には、PeterRecは、一連の再学習ニューラルネットワークを注入することで、トレーニング済みのパラメータを微調整中に未修正のままにすることができる。
5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験アブレーションを行う。
さらに、PeterRecは、複数のドメインで効率的な転送学習を行い、モデルパラメータ全体を微調整するのに対して、同等または時として優れたパフォーマンスを実現する。
コードとデータセットはhttps://github.com/fajieyuan/sigir2020_peterrecで入手できる。
関連論文リスト
- Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Prototype-based HyperAdapter for Sample-Efficient Multi-task Tuning [30.251155072822055]
Prototype-based HyperAdapter (PHA)は、アダプタチューニングとハイパーネットワーク上に構築された新しいフレームワークである。
サンプル効率のよい条件付きモジュールを生成するために、インスタンスdenseレトリバーとプロトタイプのハイパーネットワークを導入する。
PHAは、トレーニング可能なパラメータ、ストリームタスクの精度、サンプル効率のトレードオフをより良くすることを示す。
論文 参考訳(メタデータ) (2023-10-18T02:42:17Z) - $\Delta$-Patching: A Framework for Rapid Adaptation of Pre-trained
Convolutional Networks without Base Performance Loss [71.46601663956521]
大規模なデータセットで事前トレーニングされたモデルはしばしば、時間とともにやってくる新しいタスクやデータセットをサポートするように微調整される。
モデルコピーを格納することなく、効率よく微調整ニューラルネットワークモデルに$Delta$-Patchingを提案する。
我々の実験によると、$Delta$-Networksは、トレーニングされるパラメータのごく一部しか必要とせず、初期のモデルパッチ作業より優れています。
論文 参考訳(メタデータ) (2023-03-26T16:39:44Z) - Scalable Weight Reparametrization for Efficient Transfer Learning [10.265713480189486]
効率的な転送学習は、より大きなデータセットでトレーニングされたトレーニング済みのモデルを使用して、下流タスクのためにそれを再利用する。
以前の作業ではパラメータやタスク固有のモジュールが更新され、特に小さなモデルでは計算量が増加した。
本稿では,事前学習したモデルの再パラメータ化の場所を決定するためのポリシネットワークの学習を提案する。
論文 参考訳(メタデータ) (2023-02-26T23:19:11Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than
In-Context Learning [81.3514358542452]
ICL (Few-shot in-context Learning) は、予測を行うたびにトレーニング例を全て処理するので、かなりの計算、メモリ、ストレージコストを発生させる。
パラメータ効率の良い微調整は、モデルの新たなタスクの実行を可能にするために、小さなパラメータセットをトレーニングする、代替パラダイムを提供する。
本稿では,少数ショットICLとパラメータ効率の微調整を厳密に比較し,後者が計算コストを劇的に削減できることを示す。
論文 参考訳(メタデータ) (2022-05-11T17:10:41Z) - Training Neural Networks with Fixed Sparse Masks [19.58969772430058]
最近の研究では、トレーニング中にモデルのパラメータの小さなサブセットだけを更新できることが示されている。
モデルのパラメータに固定されたスパースマスクを誘導し、サブセットを選択して複数のイテレーションで更新できることが示される。
論文 参考訳(メタデータ) (2021-11-18T18:06:01Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。