論文の概要: AEFS: Adaptive Early Feature Selection for Deep Recommender Systems
- arxiv url: http://arxiv.org/abs/2509.12076v1
- Date: Mon, 15 Sep 2025 16:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.385318
- Title: AEFS: Adaptive Early Feature Selection for Deep Recommender Systems
- Title(参考訳): AEFS:Deep Recommenderシステムのための適応的早期特徴選択
- Authors: Fan Hu, Gaofeng Lu, Jun Chen, Chaonan Guo, Yuekui Yang, Xirong Li,
- Abstract要約: 特徴選択はレコメンデーションシステムの精錬において重要な技術として浮上している。
自動機械学習(AutoML)を活用した最近の進歩は大きな注目を集めている。
適応的早期特徴選択(AEFS)は、各インスタンスの情報的特徴を適応的に選択するだけでなく、埋め込み層の活性化パラメータを著しく削減する非常に単純な手法である。
- 参考スコア(独自算出の注目度): 12.331161467904531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection has emerged as a crucial technique in refining recommender systems. Recent advancements leveraging Automated Machine Learning (AutoML) has drawn significant attention, particularly in two main categories: early feature selection and late feature selection, differentiated by whether the selection occurs before or after the embedding layer. The early feature selection selects a fixed subset of features and retrains the model, while the late feature selection, known as adaptive feature selection, dynamically adjusts feature choices for each data instance, recognizing the variability in feature significance. Although adaptive feature selection has shown remarkable improvements in performance, its main drawback lies in its post-embedding layer feature selection. This process often becomes cumbersome and inefficient in large-scale recommender systems with billions of ID-type features, leading to a highly sparse and parameter-heavy embedding layer. To overcome this, we introduce Adaptive Early Feature Selection (AEFS), a very simple method that not only adaptively selects informative features for each instance, but also significantly reduces the activated parameters of the embedding layer. AEFS employs a dual-model architecture, encompassing an auxiliary model dedicated to feature selection and a main model responsible for prediction. To ensure effective alignment between these two models, we incorporate two collaborative training loss constraints. Our extensive experiments on three benchmark datasets validate the efficiency and effectiveness of our approach. Notably, AEFS matches the performance of current state-of-theart Adaptive Late Feature Selection methods while achieving a significant reduction of 37. 5% in the activated parameters of the embedding layer. AEFS is open-source at https://github. com/fly-dragon211/AEFS .
- Abstract(参考訳): 特徴選択はレコメンデーションシステムの精錬において重要な技術として浮上している。
機械学習(AutoML)を活用した最近の進歩は、特に初期特徴選択と後期特徴選択という2つの主要なカテゴリにおいて大きな注目を集めている。
初期機能選択は機能の固定サブセットを選択してモデルを再トレーニングする一方、後期機能選択はアダプティブ機能選択と呼ばれ、各データインスタンスに対する機能選択を動的に調整し、特徴の多様性を認識する。
適応的な特徴選択は性能が著しく改善されているが、主な欠点は埋め込み後の特徴選択にある。
このプロセスは、何十億ものID型特徴を持つ大規模レコメンデータシステムでは、しばしば煩雑で非効率になり、非常にスパースでパラメータが重い埋め込み層に繋がる。
これを解決するために、Adaptive Early Feature Selection (AEFS) という非常に単純な手法を導入し、各インスタンスの情報的特徴を適応的に選択するだけでなく、埋め込み層の活性化パラメータを大幅に削減する。
AEFSは二重モデルアーキテクチャを採用しており、特徴選択専用の補助モデルと予測に責任を持つ主モデルを含んでいる。
これら2つのモデル間の効果的なアライメントを確保するため、協調的なトレーニング損失制約を2つ組み込んだ。
3つのベンチマークデータセットに関する広範な実験は、我々のアプローチの有効性と有効性を検証する。
特に、AEFSは現在の最先端のAdaptive Late Feature Selectionメソッドのパフォーマンスに匹敵し、37.5%の大幅な削減を実現している。
5%であった。
AEFSはhttps://github.comでオープンソース化されている。
は、AEFS.com/fly-dragon211/AEFS。
関連論文リスト
- SELF: Surrogate-light Feature Selection with Large Language Models in Deep Recommender Systems [51.09233156090496]
ディープレコメンデータシステムのためのSurrogatE-Light特徴選択法
SELFは、大規模言語モデルからのセマンティック推論と、代理モデルからのタスク固有の学習を統合する。
実世界のレコメンデータプラットフォームからの3つの公開データセットに関する総合的な実験は、SELFの有効性を検証する。
論文 参考訳(メタデータ) (2024-12-11T16:28:18Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Knockoff-Guided Feature Selection via A Single Pre-trained Reinforced
Agent [44.84307718534031]
ノックオフ機能によってガイドされる特徴選択のための革新的なフレームワークを導入し、強化学習により最適化する。
探索プロセスの有効性を向上させるために,原特徴とそれに対応する擬似ラベルを事前訓練した深部Qネットワークが用いられている。
新しいepsilon-greedy戦略を使用して、擬似ラベルからの洞察を取り入れて、特徴選択プロセスをより効果的にする。
論文 参考訳(メタデータ) (2024-03-06T19:58:19Z) - Feature Selection as Deep Sequential Generative Learning [50.00973409680637]
本研究では, 逐次再構成, 変分, 性能評価器の損失を伴って, 深部変分変圧器モデルを構築した。
提案モデルでは,特徴選択の知識を抽出し,連続的な埋め込み空間を学習し,特徴選択決定シーケンスをユーティリティスコアに関連付けられた埋め込みベクトルにマッピングする。
論文 参考訳(メタデータ) (2024-03-06T16:31:56Z) - AFS-BM: Enhancing Model Performance through Adaptive Feature Selection with Binary Masking [0.0]
連立マスキングによる適応的特徴選択(AFS-BM)について紹介する。
トレーニングプロセス中に特徴セットとモデルパラメータを継続的に適応するために、共同最適化とバイナリマスキングを実施します。
以上の結果から,AFS-BMの精度は大幅に向上し,計算量も大幅に削減された。
論文 参考訳(メタデータ) (2024-01-20T15:09:41Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - AutoField: Automating Feature Selection in Deep Recommender Systems [36.70138179483737]
特徴選択は、ディープラーニングベースのレコメンデータシステムの開発において重要なプロセスである。
本稿では,重要な特徴フィールドを適応的に自動選択できるAutoMLフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-19T18:06:02Z) - Model-free feature selection to facilitate automatic discovery of
divergent subgroups in tabular data [4.551615447454768]
本稿では,分散サブグループの自動発見を容易にするために,モデルフリーかつスパーシティベース自動特徴選択(SAFS)フレームワークを提案する。
2つの公開データセット(MIMIC-IIIとAllstate Claims)でSAFSを検証し、既存の6つの特徴選択手法と比較した。
論文 参考訳(メタデータ) (2022-03-08T20:42:56Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。