論文の概要: Towards More Robust and Accurate Sequential Recommendation with
Cascade-guided Adversarial Training
- arxiv url: http://arxiv.org/abs/2304.05492v2
- Date: Tue, 16 Jan 2024 18:37:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 21:52:33.913512
- Title: Towards More Robust and Accurate Sequential Recommendation with
Cascade-guided Adversarial Training
- Title(参考訳): Cascade-guided Adversarial Trainingによるよりロバストで正確なシーケンスレコメンデーションを目指して
- Authors: Juntao Tan, Shelby Heinecke, Zhiwei Liu, Yongjun Chen, Yongfeng Zhang,
Huan Wang
- Abstract要約: シーケンシャルレコメンデーションモデルの性質に特有の2つの特性は、その堅牢性を損なう可能性がある。
本稿では,シーケンシャルレコメンデーションモデルに特化して設計された,新たな逆行訓練法であるカスケード誘導逆行訓練を提案する。
- 参考スコア(独自算出の注目度): 54.56998723843911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation models, models that learn from chronological
user-item interactions, outperform traditional recommendation models in many
settings. Despite the success of sequential recommendation models, their
robustness has recently come into question. Two properties unique to the nature
of sequential recommendation models may impair their robustness - the cascade
effects induced during training and the model's tendency to rely too heavily on
temporal information. To address these vulnerabilities, we propose
Cascade-guided Adversarial training, a new adversarial training procedure that
is specifically designed for sequential recommendation models. Our approach
harnesses the intrinsic cascade effects present in sequential modeling to
produce strategic adversarial perturbations to item embeddings during training.
Experiments on training state-of-the-art sequential models on four public
datasets from different domains show that our training approach produces
superior model ranking accuracy and superior model robustness to real item
replacement perturbations when compared to both standard model training and
generic adversarial training.
- Abstract(参考訳): 時系列レコメンデーションモデル、時系列ユーザとイテムのインタラクションから学習するモデルは、多くの設定で従来のレコメンデーションモデルを上回っます。
逐次レコメンデーションモデルの成功にもかかわらず、その堅牢性が最近疑問視されている。
シーケンシャルレコメンデーションモデルの性質に特有の2つの特性は、トレーニング中に引き起こされるカスケード効果と、時間的情報に強く依存する傾向という、その堅牢性を損なう可能性がある。
これらの脆弱性に対処するため,我々は逐次レコメンデーションモデル用に特別に設計された新しいアドバーサリートレーニング手順であるカスケードガイドによるアドバーサリートレーニングを提案する。
本手法は, 逐次モデリングにおける内在的カスケード効果を利用して, トレーニング中のアイテム埋め込みに対する戦略的逆転摂動を生成する。
異なる領域の4つのパブリックデータセットにおける最先端シーケンシャルモデルのトレーニング実験では、標準モデルトレーニングと一般逆トレーニングの両方と比較して、トレーニングアプローチにより、実アイテム置換摂動に対して優れたモデルランキング精度と優れたモデルロバスト性が得られた。
関連論文リスト
- Towards Efficient Modelling of String Dynamics: A Comparison of State Space and Koopman based Deep Learning Methods [8.654571696634825]
State Space Models (SSM) と Koopman に基づくディープラーニング手法は、線形および非線形の剛弦の力学をモデル化する。
以上の結果から,提案したクープマンモデルが,長周期モデリングにおける非線形ケースにおいて,他の既存手法と同等以上の性能を示すことが示唆された。
本研究は、これらの手法と過去の手法の比較概要を提供し、モデル改善のための革新的な戦略を導入することにより、力学系の物理モデリングに関する洞察を貢献する。
論文 参考訳(メタデータ) (2024-08-29T15:55:27Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - SADT: Combining Sharpness-Aware Minimization with Self-Distillation for
Improved Model Generalization [4.365720395124051]
ディープニューラルネットワークトレーニング時間とモデル一般化性を改善する方法は、さまざまなデータ拡張、正規化、最適化アプローチから構成される。
この研究は、シャープネス・アウェア、最小化、自己蒸留というモデル一般化性に対処する最近の2つのトレーニング戦略を共同で検討する。
この研究の実験的セクションは、SADTが、モデル収束時間、テスト時間性能、モデル一般化可能性において、これまで公表されたトレーニング戦略を一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2022-11-01T07:30:53Z) - Effective and Efficient Training for Sequential Recommendation using
Recency Sampling [91.02268704681124]
本稿では,新しいRecency-based Smpling of Sequencesトレーニング目標を提案する。
提案手法により拡張されたモデルにより,最先端のBERT4Recに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-07-06T13:06:31Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Sample Efficient Reinforcement Learning via Model-Ensemble Exploration
and Exploitation [3.728946517493471]
MEEEは楽観的な探索と重み付けによる搾取からなるモデルアンサンブル法である。
我々の手法は、特にサンプル複雑性において、他のモデルフリーおよびモデルベース最先端手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-05T07:18:20Z) - Regularizers for Single-step Adversarial Training [49.65499307547198]
本稿では,1ステップの対数学習手法を用いて,ロバストモデル学習を支援する3種類の正則化器を提案する。
正規化器は、ロバストモデルと擬ロバストモデルとを区別する特性を利用することにより、勾配マスキングの効果を緩和する。
論文 参考訳(メタデータ) (2020-02-03T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。