論文の概要: Learning Multi-Branch Cooperation for Enhanced Click-Through Rate Prediction at Taobao
- arxiv url: http://arxiv.org/abs/2411.13057v2
- Date: Thu, 19 Jun 2025 12:53:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 14:57:51.075993
- Title: Learning Multi-Branch Cooperation for Enhanced Click-Through Rate Prediction at Taobao
- Title(参考訳): タオバオにおけるクリックスルーレート予測のためのマルチブランチ協調学習
- Authors: Xu Chen, Zida Cheng, Yuangang Pan, Shuai Xiao, Xiaoming Liu, Jinsong Lan, Xiaoyong Zhu, Bo Zheng, Ivor W. Tsang,
- Abstract要約: MBCnet(Multi-Branch Cooperation Network)を紹介する。
MBCnetは、複数のブランチネットワークが互いに協調して、より複雑な機能相互作用モデリングを可能にする。
大規模産業データセットの実験とアプリでのオンラインA/Bテストは、MBCnetの優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 51.84189885218365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing click-through rate (CTR) prediction works have studied the role of feature interaction through a variety of techniques. Each interaction technique exhibits its own strength, and solely using one type usually constrains the model's capability to capture the complex feature relationships, especially for industrial data with enormous input feature fields. Recent research shows that effective CTR models often combine an MLP network with a dedicated feature interaction network in a two-parallel structure. However, the interplay and cooperative dynamics between different streams or branches remain under-researched. In this work, we introduce a novel Multi-Branch Cooperation Network (MBCnet) which enables multiple branch networks to collaborate with each other for better complex feature interaction modeling. Specifically, MBCnet consists of three branches: the Extensible Feature Grouping and Crossing (EFGC) branch that promotes the model's memorization ability of specific feature fields, the low rank Cross Net branch and Deep branch to enhance explicit and implicit feature crossing for improved generalization. Among these branches, a novel cooperation scheme is proposed based on two principles: Branch co-teaching and moderate differentiation. Branch co-teaching encourages well-learned branches to support poorly-learned ones on specific training samples. Moderate differentiation advocates branches to maintain a reasonable level of difference in their feature representations on the same inputs. This cooperation strategy improves learning through mutual knowledge sharing and boosts the discovery of diverse feature interactions across branches. Experiments on large-scale industrial datasets and online A/B test at Taobao app demonstrate MBCnet's superior performance, delivering a 0.09 point increase in CTR, 1.49% growth in deals, and 1.62% rise in GMV. Core codes are available online.
- Abstract(参考訳): 既存のクリックスルー率(CTR)予測の研究は、様々な技術を通して機能相互作用の役割を研究してきた。
それぞれのインタラクション技術は、それぞれ独自の強度を示しており、1つのタイプのみを使用すると、特に巨大な入力特徴フィールドを持つ産業データにおいて、複雑な特徴関係をキャプチャするモデルの能力に制約が課される。
近年の研究では、効果的なCTRモデルでは、MLPネットワークと専用の特徴相互作用ネットワークを2並列構造で結合することが多い。
しかし、異なるストリームやブランチ間の相互作用や協調的なダイナミクスは、いまだ研究されていない。
本稿では,複数のブランチネットワークが相互に協調して,より複雑な機能相互作用モデリングを実現する,新しいMulti-Branch Cooperation Network(MBCnet)を提案する。
具体的には、MBCnetは3つのブランチで構成されている: Extensible Feature Grouping and Crossing (EFGC)ブランチは、特定の特徴フィールドの記憶能力を促進する。
これらの分野の中で,分枝協調学習と中等度分化という2つの原則に基づく新しい協調スキームが提案されている。
ブランチのコティーチングは、特定のトレーニングサンプルで未学習のブランチをサポートするように、十分に学習したブランチを奨励する。
適度な分化は、分岐が同じ入力上で特徴表現に合理的なレベルの差を維持することを主張する。
この協力戦略は、相互知識の共有を通じて学習を改善し、枝をまたいだ多様な特徴的相互作用の発見を促進する。
Taobao Appでの大規模産業データセットとオンラインA/Bテストの実験では、MBCnetのパフォーマンスが向上し、CTRが0.09ポイント、取引が1.49%、GMVが1.62%向上した。
コアコードはオンラインで入手できる。
関連論文リスト
- GSSF: Generalized Structural Sparse Function for Deep Cross-modal Metric Learning [51.677086019209554]
ペアワイド類似性学習のためのモダリティ間の強力な関係を捕捉する汎用構造スパースを提案する。
距離メートル法は、対角線とブロック対角線の2つの形式を微妙にカプセル化する。
クロスモーダルと2つの余分なユニモーダル検索タスクの実験は、その優位性と柔軟性を検証した。
論文 参考訳(メタデータ) (2024-10-20T03:45:50Z) - EMBANet: A Flexible Efffcient Multi-branch Attention Network [12.372988694006262]
この研究は、入力テンソルを処理し、マルチスケール特徴写像を得るための新しいモジュール、すなわち、マルチブランチ・コンキャット(MBC)を提示する。
この研究では、多重化と分割という2つの重要な変換作用素が考慮されている。
EMBANetと呼ばれる新しいバックボーンネットワークは、EMBAブロックを積み重ねることで確立される。
論文 参考訳(メタデータ) (2024-07-07T15:50:01Z) - Scaling Large-Language-Model-based Multi-Agent Collaboration [75.5241464256688]
大規模言語モデルによるエージェントのパイオニア化は、マルチエージェントコラボレーションの設計パターンを暗示している。
神経スケーリング法則に触発された本研究では,マルチエージェント協調におけるエージェントの増加に類似の原理が適用されるかを検討する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - RGBT Tracking via Progressive Fusion Transformer with Dynamically Guided
Learning [37.067605349559]
本稿ではProFormerと呼ばれる新しいプログレッシブフュージョントランスを提案する。
単一のモダリティ情報をマルチモーダル表現に統合し、堅牢なRGBT追跡を行う。
ProFormerは、RGBT210、RGBT234、LasHeR、VTUAVデータセットに新しい最先端パフォーマンスを設定する。
論文 参考訳(メタデータ) (2023-03-26T16:55:58Z) - Exploring Inter-Channel Correlation for Diversity-preserved
KnowledgeDistillation [91.56643684860062]
ICKD (Inter-Channel correlation for Knowledge Distillation) を開発した。
ICKDは教師ネットワークにおける特徴空間の内在分布と十分な多様性特性をキャプチャする。
我々は,ノウルエッジ蒸留に基づく最初の手法であるResNet18は,ImageNet分類におけるTop-1の精度を72%以上向上させる。
論文 参考訳(メタデータ) (2022-02-08T07:01:56Z) - Celebrating Diversity in Shared Multi-Agent Reinforcement Learning [20.901606233349177]
深層多エージェント強化学習は、複雑な協調的な課題を解決することを約束している。
本稿では,共有型マルチエージェント強化学習の最適化と表現に多様性を導入することを目的とする。
提案手法は,Google Research Footballと超硬度StarCraft IIマイクロマネジメントタスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-06-04T00:55:03Z) - CAN: Feature Co-Action for Click-Through Rate Prediction [42.251405364218805]
本稿では,CAN(Co-Action Network)を提案する。
CANは最先端のCTRモデルとカルデシアン積法より優れている。
CANはAlibabaのディスプレイ広告システムにデプロイされ、CTRで12%改善されている。
論文 参考訳(メタデータ) (2020-11-11T08:33:07Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。