論文の概要: TriMLP: Revenge of a MLP-like Architecture in Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2305.14675v3
- Date: Tue, 25 Jul 2023 09:55:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 20:41:10.749229
- Title: TriMLP: Revenge of a MLP-like Architecture in Sequential Recommendation
- Title(参考訳): TriMLP: シーケンスレコメンデーションにおけるMLPのようなアーキテクチャの回避
- Authors: Yiheng Jiang, Yuanbo Xu, Yongjian Yang, Funing Yang, Pengyang Wang and
Hui Xiong
- Abstract要約: 本稿では,TriMLPという逐次レコメンデーションのためのシーケンシャルなアーキテクチャと,クロストークン通信のための新しい三角形ミキサーを提案する。
三角ミキサーの設計において,基本行列乗算としてのクロストケン操作のイナシイを単純化し,重み行列の下方三角形ニューロンを落として,反時間次接続を将来のトークンからブロックする。
- 参考スコア(独自算出の注目度): 23.32537260687907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a MLP-like architecture for sequential
recommendation, namely TriMLP, with a novel Triangular Mixer for cross-token
communications. In designing Triangular Mixer, we simplify the cross-token
operation in MLP as the basic matrix multiplication, and drop the
lower-triangle neurons of the weight matrix to block the anti-chronological
order connections from future tokens. Accordingly, the information leakage
issue can be remedied and the prediction capability of MLP can be fully
excavated under the standard auto-regressive mode. Take a step further, the
mixer serially alternates two delicate MLPs with triangular shape, tagged as
global and local mixing, to separately capture the long range dependencies and
local patterns on fine-grained level, i.e., long and short-term preferences.
Empirical study on 12 datasets of different scales (50K\textasciitilde 10M
user-item interactions) from 4 benchmarks (Amazon, MovieLens, Tenrec and LBSN)
show that TriMLP consistently attains promising accuracy/efficiency trade-off,
where the average performance boost against several state-of-the-art baselines
achieves up to 14.88% with 8.65% less inference cost.
- Abstract(参考訳): 本稿では,TriMLPという逐次レコメンデーションのためのMLPライクなアーキテクチャと,クロストークン通信のための新しい三角形ミキサーを提案する。
三角ミキサーを設計する際には,基本行列乗法としてMLPのクロストケン操作を単純化し,重み行列の下方三角形ニューロンを落として,反時間次接続を将来のトークンからブロックする。
これにより、情報漏洩問題を修正でき、標準の自己回帰モード下では、MLPの予測能力を完全に発掘することができる。
さらに一歩進めると、ミキサーは、2つの微妙なMLPを三角形状に交互に交換し、グローバルとローカルの混合としてタグ付けし、細粒度レベルでの長距離依存性と局所パターンを別々にキャプチャする。
4つのベンチマーク(Amazon、MovieLens、Tenrec、LBSN)から得られた12の異なるスケールのデータセット(50K\textasciitilde 10Mのユーザ-itemインタラクション)に関する実証的研究は、TriMLPが一貫して有望な精度/効率のトレードオフを実現していることを示している。
関連論文リスト
- Strip-MLP: Efficient Token Interaction for Vision MLP [31.02197585697145]
textbfStrip-MLPを導入し,トークン間相互作用を3つの方法で強化する。
Strip-MLPは、小さなデータセット上での空間モデルの性能を大幅に改善する。
CIFAR-100ではCaltech-101では+2.44%、CIFAR-100では+2.16%である。
論文 参考訳(メタデータ) (2023-07-21T09:40:42Z) - MLP-3D: A MLP-like 3D Architecture with Grouped Time Mixing [123.43419144051703]
ビデオ認識のための斬新な3Dアーキテクチャを提案する。
結果は、最先端の3D CNNやビデオに匹敵する。
論文 参考訳(メタデータ) (2022-06-13T16:21:33Z) - Mixing and Shifting: Exploiting Global and Local Dependencies in Vision
MLPs [84.3235981545673]
Token-mixing Multi-layer Perceptron (MLP) モデルはコンピュータビジョンタスクにおいて競合性能を示す。
本研究では,空間シフトの量に関して,局所受容場のサイズを増大させるMix-Shift-MLPを提案する。
MS-MLPは、複数のビジョンベンチマークで競合性能を達成する。
論文 参考訳(メタデータ) (2022-02-14T06:53:48Z) - RepMLPNet: Hierarchical Vision MLP with Re-parameterized Locality [113.1414517605892]
そこで本研究では,FC層に局所前処理を組み込む手法であるLocality Injectionを提案する。
RepMLPNetはCityscapesセマンティックセグメンテーションにシームレスに移行した最初の企業である。
論文 参考訳(メタデータ) (2021-12-21T10:28:17Z) - Sparse-MLP: A Fully-MLP Architecture with Conditional Computation [7.901786481399378]
厳密な条件計算を伴うMoE(Mixture-of-Experts)は、注意に基づくモデルを、同等の計算コストでより多くのパラメータに拡張するための効果的なアーキテクチャであることが証明されている。
我々は、より効率的なアーキテクチャを実現するために、最近のMixerモデルをMoEで拡張するSparse-MLPを提案する。
論文 参考訳(メタデータ) (2021-09-05T06:43:08Z) - Hire-MLP: Vision MLP via Hierarchical Rearrangement [58.33383667626998]
Hire-MLPは、再配置によるシンプルだが競合する視覚アーキテクチャである。
提案したHire-MLPアーキテクチャは、単純なチャネル混合操作で構築されており、高い柔軟性と推論速度を享受できる。
実験の結果,Herre-MLPはImageNet-1Kベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-08-30T16:11:04Z) - CycleMLP: A MLP-like Architecture for Dense Prediction [26.74203747156439]
CycleMLPは視覚認識と密度予測のための汎用的なバックボーンである。
様々な画像サイズに対処でき、ローカルウィンドウを使用することで、画像サイズに対する線形計算の複雑さを実現する。
CycleMLPは、モデルに対するオブジェクト検出、インスタンスセグメンテーション、セマンティックセグメンテーションの競合するベースラインを提供することを目的としている。
論文 参考訳(メタデータ) (2021-07-21T17:23:06Z) - AS-MLP: An Axial Shifted MLP Architecture for Vision [50.11765148947432]
本稿では,Axial Shifted Architecture (AS-MLP)を提案する。
特徴写像のチャネルを軸シフトすることにより、AS-MLPは異なる方向から情報の流れを得ることができる。
提案したAS-MLPアーキテクチャでは,ImageNet-1Kデータセット上の88Mパラメータと15.2GFLOPを用いて,83.3%のTop-1精度が得られる。
論文 参考訳(メタデータ) (2021-07-18T08:56:34Z) - S$^2$-MLP: Spatial-Shift MLP Architecture for Vision [34.47616917228978]
近年、視覚変換器(ViT)とその後続の作業は、畳み込みを放棄し、自己注意操作を活用している。
本稿では,空間シフト(S$2$-MLP)という新しい純粋アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-06-14T15:05:11Z) - MLP-Mixer: An all-MLP Architecture for Vision [93.16118698071993]
マルチ層パーセプトロン(MLP)を基盤としたアーキテクチャ「Mixer」を発表。
Mixerはイメージ分類ベンチマークで競合スコアを獲得し、事前トレーニングと推論は最先端のモデルに匹敵する。
論文 参考訳(メタデータ) (2021-05-04T16:17:21Z) - Irregularly Tabulated MLP for Fast Point Feature Embedding [13.218995242910497]
本稿では,一対の多層パーセプトロン (MLP) とルックアップテーブル (LUT) を用いて,点座標入力を高次元特徴に変換する新しいフレームワークを提案する。
LUTIMLPはまた、埋め込み関数のヤコビアンに対して大きなスピードアップを提供する。
論文 参考訳(メタデータ) (2020-11-13T04:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。