論文の概要: Branches, Assemble! Multi-Branch Cooperation Network for Large-Scale Click-Through Rate Prediction at Taobao
- arxiv url: http://arxiv.org/abs/2411.13057v1
- Date: Wed, 20 Nov 2024 06:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:43.388152
- Title: Branches, Assemble! Multi-Branch Cooperation Network for Large-Scale Click-Through Rate Prediction at Taobao
- Title(参考訳): タオバオにおける大規模クリックスルーレート予測のためのマルチブランチ協調ネットワーク
- Authors: Xu Chen, Zida Cheng, Yuangang Pan, Shuai Xiao, Xiaoming Liu, Jinsong Lan, Qingwen Liu, Ivor W. Tsang,
- Abstract要約: MBCnet(Multi-Branch Cooperation Network)を紹介する。
MBCnetは、Expert-based Feature Grouping and Crossing (EFGC)、低ランククロスネットブランチ、Deepブランチの3つのブランチで構成されている。
大規模産業データセットとオンラインA/Bテストの実験では、MBCnetのパフォーマンスが向上し、CTRが0.09ポイント、取引が1.49%、GMVが1.62%向上した。
- 参考スコア(独自算出の注目度): 49.11242099449315
- License:
- Abstract: Existing click-through rate (CTR) prediction works have studied the role of feature interaction through a variety of techniques. Each interaction technique exhibits its own strength, and solely using one type could constrain the model's capability to capture the complex feature relationships, especially for industrial large-scale data with enormous users and items. Recent research shows that effective CTR models often combine an MLP network with a dedicated feature interaction network in a two-parallel structure. However, the interplay and cooperative dynamics between different streams or branches remain under-researched. In this work, we introduce a novel Multi-Branch Cooperation Network (MBCnet) which enables multiple branch networks to collaborate with each other for better complex feature interaction modeling. Specifically, MBCnet consists of three branches: the Expert-based Feature Grouping and Crossing (EFGC) branch that promotes the model's memorization ability of specific feature fields, the low rank Cross Net branch and Deep branch to enhance both explicit and implicit feature crossing for improved generalization. Among branches, a novel cooperation scheme is proposed based on two principles: branch co-teaching and moderate differentiation. Branch co-teaching encourages well-learned branches to support poorly-learned ones on specific training samples. Moderate differentiation advocates branches to maintain a reasonable level of difference in their feature representations. The cooperation strategy improves learning through mutual knowledge sharing via co-teaching and boosts the discovery of diverse feature interactions across branches. Extensive experiments on large-scale industrial datasets and online A/B test demonstrate MBCnet's superior performance, delivering a 0.09 point increase in CTR, 1.49% growth in deals, and 1.62% rise in GMV. Core codes will be released soon.
- Abstract(参考訳): 既存のクリックスルー率(CTR)予測の研究は、様々な技術を通して機能相互作用の役割を研究してきた。
それぞれのインタラクションテクニックは、それぞれ独自の強度を示しており、特に巨大なユーザやアイテムを持つ大規模産業データにおいて、複雑な機能関係をキャプチャするモデルの能力を制限することができる。
近年の研究では、効果的なCTRモデルでは、MLPネットワークと専用の特徴相互作用ネットワークを2並列構造で結合することが多い。
しかし、異なるストリームやブランチ間の相互作用や協調的なダイナミクスは、いまだ研究されていない。
本稿では,複数のブランチネットワークが相互に協調して,より複雑な機能相互作用モデリングを実現する,新しいMulti-Branch Cooperation Network(MBCnet)を提案する。
具体的には、MBCnetは3つのブランチで構成されている: エキスパートベースのフィーチャーグループとクロス(EFGC)ブランチは、特定の特徴フィールドの記憶能力を促進する。
分枝の間では,分枝協調学習と中等度分化という2つの原則に基づく新しい協調スキームが提案されている。
ブランチのコティーチングは、特定のトレーニングサンプルで未学習のブランチをサポートするように、十分に学習したブランチを奨励する。
適度な分化は、分岐が特徴表現において合理的なレベルの差を維持することを主張する。
協調戦略は、相互知識の共有を通じて学習を改善し、分枝間の多様な特徴的相互作用の発見を促進する。
大規模産業データセットとオンラインA/Bテストに関する大規模な実験は、MBCnetの優れたパフォーマンスを示し、CTRが0.09ポイント、取引が1.49%、GMVが1.62%向上したことを示している。
コアコードは近くリリースされる予定だ。
関連論文リスト
- GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - EMBANet: A Flexible Efffcient Multi-branch Attention Network [12.372988694006262]
この研究は、入力テンソルを処理し、マルチスケール特徴写像を得るための新しいモジュール、すなわち、マルチブランチ・コンキャット(MBC)を提示する。
この研究では、多重化と分割という2つの重要な変換作用素が考慮されている。
EMBANetと呼ばれる新しいバックボーンネットワークは、EMBAブロックを積み重ねることで確立される。
論文 参考訳(メタデータ) (2024-07-07T15:50:01Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - RGBT Tracking via Progressive Fusion Transformer with Dynamically Guided
Learning [37.067605349559]
本稿ではProFormerと呼ばれる新しいプログレッシブフュージョントランスを提案する。
単一のモダリティ情報をマルチモーダル表現に統合し、堅牢なRGBT追跡を行う。
ProFormerは、RGBT210、RGBT234、LasHeR、VTUAVデータセットに新しい最先端パフォーマンスを設定する。
論文 参考訳(メタデータ) (2023-03-26T16:55:58Z) - Exploring Inter-Channel Correlation for Diversity-preserved
KnowledgeDistillation [91.56643684860062]
ICKD (Inter-Channel correlation for Knowledge Distillation) を開発した。
ICKDは教師ネットワークにおける特徴空間の内在分布と十分な多様性特性をキャプチャする。
我々は,ノウルエッジ蒸留に基づく最初の手法であるResNet18は,ImageNet分類におけるTop-1の精度を72%以上向上させる。
論文 参考訳(メタデータ) (2022-02-08T07:01:56Z) - Celebrating Diversity in Shared Multi-Agent Reinforcement Learning [20.901606233349177]
深層多エージェント強化学習は、複雑な協調的な課題を解決することを約束している。
本稿では,共有型マルチエージェント強化学習の最適化と表現に多様性を導入することを目的とする。
提案手法は,Google Research Footballと超硬度StarCraft IIマイクロマネジメントタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-06-04T00:55:03Z) - CAN: Feature Co-Action for Click-Through Rate Prediction [42.251405364218805]
本稿では,CAN(Co-Action Network)を提案する。
CANは最先端のCTRモデルとカルデシアン積法より優れている。
CANはAlibabaのディスプレイ広告システムにデプロイされ、CTRで12%改善されている。
論文 参考訳(メタデータ) (2020-11-11T08:33:07Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。