論文の概要: ColdNAS: Search to Modulate for User Cold-Start Recommendation
- arxiv url: http://arxiv.org/abs/2306.03387v1
- Date: Tue, 6 Jun 2023 04:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 17:20:30.838940
- Title: ColdNAS: Search to Modulate for User Cold-Start Recommendation
- Title(参考訳): ColdNAS: ユーザのコールドスタートレコメンデーションを変調する検索
- Authors: Shiguang Wu, Yaqing Wang, Qinghe Jing, Daxiang Dong, Dejing Dou,
Quanming Yao
- Abstract要約: ユーザによるコールドスタート問題に対するColdNASと呼ばれる変調フレームワークを提案する。
ニューラルアーキテクチャサーチにより,機能や位置を含む適切な変調構造を探索する。
異なる変調関数が、異なるデータセット上で最高のパフォーマンスをもたらすことを観察する。
- 参考スコア(独自算出の注目度): 59.06457942204116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making personalized recommendation for cold-start users, who only have a few
interaction histories, is a challenging problem in recommendation systems.
Recent works leverage hypernetworks to directly map user interaction histories
to user-specific parameters, which are then used to modulate predictor by
feature-wise linear modulation function. These works obtain the
state-of-the-art performance. However, the physical meaning of scaling and
shifting in recommendation data is unclear. Instead of using a fixed modulation
function and deciding modulation position by expertise, we propose a modulation
framework called ColdNAS for user cold-start problem, where we look for proper
modulation structure, including function and position, via neural architecture
search. We design a search space which covers broad models and theoretically
prove that this search space can be transformed to a much smaller space,
enabling an efficient and robust one-shot search algorithm. Extensive
experimental results on benchmark datasets show that ColdNAS consistently
performs the best. We observe that different modulation functions lead to the
best performance on different datasets, which validates the necessity of
designing a searching-based method.
- Abstract(参考訳): 少数のインタラクション履歴しか持たないコールドスタートユーザーにパーソナライズドレコメンデーションを作ることは、レコメンデーションシステムでは難しい問題である。
最近の研究はハイパーネットを利用してユーザインタラクション履歴を直接ユーザ固有のパラメータにマッピングし、特徴量線形変調関数によって予測を変調する。
これらの作品は最先端のパフォーマンスを得る。
しかし、レコメンデーションデータのスケーリングとシフトの物理的意味は明らかではない。
固定変調関数を用いて、専門知識で変調位置を決定する代わりに、ユーザコールドスタート問題に対して、ColdNASと呼ばれる変調フレームワークを提案し、ニューラルネットワークを用いて関数や位置を含む適切な変調構造を求める。
我々は広いモデルをカバーする探索空間を設計し、この探索空間がより小さな空間に変換可能であることを理論的に証明し、効率的で堅牢なワンショット探索アルゴリズムを実現する。
ベンチマークデータセットの大規模な実験結果から、ColdNASは一貫して最高のパフォーマンスを示している。
異なる変調関数は、異なるデータセット上で最高の性能をもたらし、探索に基づく手法を設計する必要性を検証している。
関連論文リスト
- Contrastive Learning for Cold Start Recommendation with Adaptive Feature Fusion [2.2194815687410627]
本稿では,コントラスト学習を統合したコールドスタートレコメンデーションモデルを提案する。
このモデルは適応的特徴選択モジュールを通じて鍵特徴の重みを動的に調整する。
マルチモーダルな特徴融合機構を組み合わせることで、ユーザ属性、アイテムメタ情報、コンテキスト特徴を統合する。
論文 参考訳(メタデータ) (2025-02-05T23:15:31Z) - DistDNAS: Search Efficient Feature Interactions within 2 Hours [16.455469713601417]
我々はDistDNASを、迅速かつ効率的な機能相互作用設計のための適切なソリューションとして提示する。
1TB Criteo Terabyte データセット上で DistDNAS で構築した最良のモデルを評価する。
論文 参考訳(メタデータ) (2023-11-01T02:27:38Z) - Small Temperature is All You Need for Differentiable Architecture Search [8.93957397187611]
微分可能なアーキテクチャサーチ(DARTS)は、高効率な勾配に基づくニューラルアーキテクチャサーチ(NAS)をもたらす
そこで本研究では, トレーニングにおける緩和スーパーネットとプルーニングファイナネットとのギャップを, 低温利用による評価で埋めることを提案する。
論文 参考訳(メタデータ) (2023-06-12T04:01:57Z) - Prompt-Matched Semantic Segmentation [96.99924127527002]
本研究の目的は、事前学習した基礎モデルを、画像意味セグメンテーションの下流の様々なタスクに効果的に適応する方法を検討することである。
本稿では,タスク指向のチューニングに適応的に視覚的プロンプトを生成するとともに,基礎モデルの本来の構造を維持できる新しい階層間プロンプトマッチングフレームワークを提案する。
次に、Semantic-aware Prompt Matcherと呼ばれる軽量モジュールを導入し、2つのステージ間で階層的に補間し、各タスクに対して適切なプロンプトを学習する。
論文 参考訳(メタデータ) (2022-08-22T09:12:53Z) - Learning to Learn a Cold-start Sequential Recommender [70.5692886883067]
コールドスタート勧告は、現代のオンラインアプリケーションにおいて緊急の問題である。
メタ学習に基づくコールドスタートシーケンシャルレコメンデーションフレームワークMetaCSRを提案する。
MetaCSRは、通常のユーザの行動から共通のパターンを学ぶ能力を持っている。
論文 参考訳(メタデータ) (2021-10-18T08:11:24Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Searching Efficient Model-guided Deep Network for Image Denoising [61.65776576769698]
モデルガイド設計とNAS(MoD-NAS)をつなぐ新しいアプローチを提案する。
MoD-NASは、再利用可能な幅探索戦略と密結合された探索ブロックを用いて、各層の操作を自動的に選択する。
いくつかの一般的なデータセットに対する実験結果から、我々のMoD-NASは現在の最先端手法よりもPSNR性能が向上していることが示された。
論文 参考訳(メタデータ) (2021-04-06T14:03:01Z) - ISTA-NAS: Efficient and Consistent Neural Architecture Search by Sparse
Coding [86.40042104698792]
スパース符号問題としてニューラルアーキテクチャ探索を定式化する。
実験では、CIFAR-10の2段階法では、検索にわずか0.05GPUしか必要としない。
本手法は,CIFAR-10とImageNetの両方において,評価時間のみのコストで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-13T04:34:24Z) - NOVAS: Non-convex Optimization via Adaptive Stochastic Search for
End-to-End Learning and Control [22.120942106939122]
本稿では,一般のニューラルネットワーク最適化操作において,適応探索をビルディングブロックとして用いることを提案する。
我々は、合成エネルギーベースの構造化タスクにおける既存の2つの代替案に対してベンチマークを行い、最適制御アプリケーションでの使用例を示す。
論文 参考訳(メタデータ) (2020-06-22T03:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。