論文の概要: Learning Effective and Efficient Embedding via an Adaptively-Masked
Twins-based Layer
- arxiv url: http://arxiv.org/abs/2108.11513v1
- Date: Tue, 24 Aug 2021 11:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 14:15:34.688257
- Title: Learning Effective and Efficient Embedding via an Adaptively-Masked
Twins-based Layer
- Title(参考訳): 適応マスク双生児層による効率的・効率的な埋め込み学習
- Authors: Bencheng Yan, Pengjie Wang, Kai Zhang, Wei Lin, Kuang-Chih Lee, Jian
Xu and Bo Zheng
- Abstract要約: 本稿では,標準埋め込み層の背後に適応型ツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツインツ
AMTLは、埋め込みベクトルごとに望ましくない次元をマスクするマスクベクトルを生成する。
マスクベクトルは次元の選択に柔軟性をもたらし、提案した層は訓練されていないDLRMや訓練されていないDLRMに簡単に追加できる。
- 参考スコア(独自算出の注目度): 15.403616481651383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding learning for categorical features is crucial for the deep
learning-based recommendation models (DLRMs). Each feature value is mapped to
an embedding vector via an embedding learning process. Conventional methods
configure a fixed and uniform embedding size to all feature values from the
same feature field. However, such a configuration is not only sub-optimal for
embedding learning but also memory costly. Existing methods that attempt to
resolve these problems, either rule-based or neural architecture search
(NAS)-based, need extensive efforts on the human design or network training.
They are also not flexible in embedding size selection or in warm-start-based
applications. In this paper, we propose a novel and effective embedding size
selection scheme. Specifically, we design an Adaptively-Masked Twins-based
Layer (AMTL) behind the standard embedding layer. AMTL generates a mask vector
to mask the undesired dimensions for each embedding vector. The mask vector
brings flexibility in selecting the dimensions and the proposed layer can be
easily added to either untrained or trained DLRMs. Extensive experimental
evaluations show that the proposed scheme outperforms competitive baselines on
all the benchmark tasks, and is also memory-efficient, saving 60\% memory usage
without compromising any performance metrics.
- Abstract(参考訳): 分類的特徴に対する学習の埋め込みは、深層学習に基づくレコメンデーションモデル(DLRM)にとって重要である。
各特徴値は、埋め込み学習プロセスを介して埋め込みベクトルにマッピングされる。
従来の方法では、同じ特徴フィールドからすべての特徴値に固定および均一な埋め込みサイズを設定する。
しかし、そのような構成は学習を組み込むのに最適であるだけでなく、メモリのコストもかかる。
ルールベースまたはニューラルアーキテクチャサーチ(NAS)ベースのこれらの問題を解決する既存の方法は、ヒューマンデザインやネットワークトレーニングに広範な努力を必要とする。
また、サイズ選択やウォームスタートベースのアプリケーションでは柔軟性がない。
本稿では,新しい,効果的な埋め込みサイズ選択手法を提案する。
具体的には,標準組込み層の裏側に適応マッシュドツインベース層(amtl)を設計した。
AMTLは、埋め込みベクトルごとに望ましくない次元をマスクするマスクベクトルを生成する。
マスクベクトルは次元の選択に柔軟性をもたらし、提案した層は訓練されていないDLRMに簡単に追加できる。
広範な実験評価により、提案手法は全てのベンチマークタスクにおける競合ベースラインよりも優れており、またメモリ効率も高く、パフォーマンス指標を妥協することなく60\%のメモリ使用率を節約できることを示した。
関連論文リスト
- Enhancing Cross-Category Learning in Recommendation Systems with
Multi-Layer Embedding Training [2.4862527485819186]
多層埋め込み訓練(MLET)は、埋め込み層の因子化による埋め込みを訓練する。
MLETは、特に稀なアイテムに対して、一貫してより良いモデルを生成する。
モデル品質が一定であれば、MLETは埋め込み寸法とモデルサイズを最大16倍、平均5.8倍まで減らすことができる。
論文 参考訳(メタデータ) (2023-09-27T09:32:10Z) - Towards A Unified View of Sparse Feed-Forward Network in Pretraining
Large Language Model [58.9100867327305]
大規模かつスパースなフィードフォワード層(S-FFN)は、大きな言語モデルをテキスト処理するためにTransformersモデルのサイズをスケールアップするのに有効であることが証明されている。
我々は,S-FFNの2つの主要な設計選択,すなわち,メモリブロックのサイズとメモリブロックの選択方法について分析した。
言語モデルの事前学習において,より単純な選択方法である textbftextttAvg-K が得られた。
論文 参考訳(メタデータ) (2023-05-23T12:28:37Z) - Learning to Learn Better for Video Object Segmentation [94.5753973590207]
本稿では,SVOS の学習目標機能 (LLB) を強調する新しいフレームワークを提案する。
識別ラベル生成モジュール(DLGM)と適応融合モジュールを設計し,これらの課題に対処する。
提案手法は最先端性能を実現する。
論文 参考訳(メタデータ) (2022-12-05T09:10:34Z) - A Model or 603 Exemplars: Towards Memory-Efficient Class-Incremental
Learning [56.450090618578]
CIL(Class-Incremental Learning)は、この要件を満たすために、限られたメモリサイズでモデルをトレーニングすることを目的としている。
モデルサイズを総予算にカウントし,メモリサイズに整合する手法を比較すると,保存モデルは常に機能しないことを示す。
本稿では,メモリ効率のよい拡張可能なMOdelのための MEMO という,シンプルで効果的なベースラインを提案する。
論文 参考訳(メタデータ) (2022-05-26T08:24:01Z) - Hierarchical Variational Memory for Few-shot Learning Across Domains [120.87679627651153]
本稿では,プロトタイプの各レベルが階層メモリから対応する情報を取得する階層型プロトタイプモデルを提案する。
このモデルには、ドメインシフトの状況が要求される場合、異なるセマンティックレベルの機能を柔軟に依存する能力が備わっている。
モデルにおける各コンポーネントの有効性を示すために、徹底的なアブレーション研究を行っている。
論文 参考訳(メタデータ) (2021-12-15T15:01:29Z) - Binary Code based Hash Embedding for Web-scale Applications [12.851057275052506]
ディープラーニングモデルは、レコメンダシステムやオンライン広告など、Webスケールのアプリケーションで広く採用されている。
これらのアプリケーションでは、分類的特徴の組込み学習がディープラーニングモデルの成功に不可欠である。
本稿では,バイナリコードに基づくハッシュ埋め込み方式を提案する。
論文 参考訳(メタデータ) (2021-08-24T11:51:15Z) - Semantically Constrained Memory Allocation (SCMA) for Embedding in
Efficient Recommendation Systems [27.419109620575313]
ディープラーニングモデルの重要な課題は、数百万のカテゴリクラスやトークンを扱うことだ。
本稿では,記憶の共有を意味情報の重なりに比例して共有する,新しいメモリ共有埋め込み方式を提案する。
性能を維持しながらメモリフットプリントの大幅な削減を示す。
論文 参考訳(メタデータ) (2021-02-24T19:55:49Z) - Learning to Embed Categorical Features without Embedding Tables for
Recommendation [22.561967284428707]
本稿では,組込みテーブルを深層埋め込みネットワークに置き換え,組込みを高速に計算する別の組込みフレームワークを提案する。
エンコーディングモジュールは決定論的であり、学習不能であり、ストレージが不要である一方、埋め込みネットワークはトレーニング時間中に更新され、埋め込み生成が学習される。
論文 参考訳(メタデータ) (2020-10-21T06:37:28Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Shape Adaptor: A Learnable Resizing Module [59.940372879848624]
ニューラルネットワークのための新しいリサイズモジュール: 従来のリサイズ層上に構築されたドロップインエンハンスメントであるシェイプアダプタを提案する。
我々の実装では、追加の監督なしに形状適応器をエンドツーエンドで訓練することが可能です。
ネットワーク圧縮と伝達学習の2つの応用における形状適応器の有効性を示す。
論文 参考訳(メタデータ) (2020-08-03T14:15:52Z) - Training with Multi-Layer Embeddings for Model Reduction [0.9046327456472286]
複数層埋め込み学習アーキテクチャを導入し, 一連の線形層を通して埋め込みを訓練する。
その結果,メモリフットプリントの精度が向上し,dを4~8倍削減できることがわかった。
論文 参考訳(メタデータ) (2020-06-10T02:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。