論文の概要: 1$^{st}$ Place Solution of WWW 2025 EReL@MIR Workshop Multimodal CTR Prediction Challenge
- arxiv url: http://arxiv.org/abs/2505.03543v1
- Date: Tue, 06 May 2025 13:55:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.407411
- Title: 1$^{st}$ Place Solution of WWW 2025 EReL@MIR Workshop Multimodal CTR Prediction Challenge
- Title(参考訳): 1$^{st}$ Place Solution of WWW 2025 EReL@MIR Workshop Multimodal CTR Prediction Challenge
- Authors: Junwei Xu, Zehao Zhao, Xiaoyu Hu, Zhenjie Song,
- Abstract要約: 本報告では,Multimodal CTR Prediction Challengeのタスク2における1ドル当たりの入賞ソリューションについて述べる。
マルチモーダル情報の統合には、凍結したマルチモーダル埋め込みを各アイテムの埋め込みに追加するだけでよい。
課題データセットの実験では,本手法の有効性を実証し,リーダーボード上の0.9839 AUCで優れた性能を実現した。
- 参考スコア(独自算出の注目度): 1.509961504986039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The WWW 2025 EReL@MIR Workshop Multimodal CTR Prediction Challenge focuses on effectively applying multimodal embedding features to improve click-through rate (CTR) prediction in recommender systems. This technical report presents our 1$^{st}$ place winning solution for Task 2, combining sequential modeling and feature interaction learning to effectively capture user-item interactions. For multimodal information integration, we simply append the frozen multimodal embeddings to each item embedding. Experiments on the challenge dataset demonstrate the effectiveness of our method, achieving superior performance with a 0.9839 AUC on the leaderboard, much higher than the baseline model. Code and configuration are available in our GitHub repository and the checkpoint of our model can be found in HuggingFace.
- Abstract(参考訳): WWW 2025 EReL@MIR Workshop Multimodal CTR Prediction Challengeは、推奨システムにおけるクリックスルー率(CTR)予測を改善するために、マルチモーダル埋め込み機能を効果的に適用することに焦点を当てている。
本稿では,1$^{st}$ place win solution for Task 2について述べる。
マルチモーダル情報の統合には、凍結したマルチモーダル埋め込みを各アイテムの埋め込みに追加するだけでよい。
課題データセットの実験では,本手法の有効性を実証し,ベースラインモデルよりもはるかに高い0.9839 AUCで優れた性能を実現した。
コードと設定はGitHubリポジトリで公開されており、モデルのチェックポイントはHuggingFaceで参照できます。
関連論文リスト
- Feature Fusion Revisited: Multimodal CTR Prediction for MMCTR Challenge [4.3058911704400415]
EReL@MIRワークショップは、マルチモーダル表現学習の効率向上を目的とした様々なアプローチを試す貴重な機会となった。
我がチームは第2タスク-勝者賞(Multimodal CTR Prediction)を受賞した。
論文 参考訳(メタデータ) (2025-04-26T16:04:33Z) - Quadratic Interest Network for Multimodal Click-Through Rate Prediction [12.989347150912685]
産業レコメンデーションシステムにおいて,マルチモーダルクリックスルー率(CTR)予測は重要な手法である。
マルチモーダルCTR予測のためのQINと呼ばれるタスク2の新しいモデルを提案する。
論文 参考訳(メタデータ) (2025-04-24T16:08:52Z) - Action Recognition Using Temporal Shift Module and Ensemble Learning [0.0]
本稿では,aclICPR 2024におけるマルチモーダル視覚パターン認識ワークショップの一環として,マルチモーダル行動認識チャレンジ(Multi-Modal Action Recognition Challenge)のファーストランクソリューションを提案する。
このコンペティションは、マルチモーダルソースから収集された20のアクションクラスの多様なデータセットを使用して、人間の行動を認識することを目的としている。
提案手法は,20クラスにまたがる人的行動の認識において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-01-29T10:36:55Z) - SEED-X: Multimodal Models with Unified Multi-granularity Comprehension and Generation [61.392147185793476]
統一的で汎用的な基礎モデル、すなわちSEED-Xを提案する。
SEED-Xは、理解および生成タスクのための多粒度視覚意味論をモデル化することができる。
我々の研究が、現実世界のアプリケーションで多目的なマルチモーダル基盤モデルによって達成できるものについて、将来の研究に刺激を与えることを期待しています。
論文 参考訳(メタデータ) (2024-04-22T17:56:09Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - OFASys: A Multi-Modal Multi-Task Learning System for Building Generalist
Models [72.8156832931841]
ジェネリストモデルは、単一のモデル内でタスクに依存しない方法で多様なマルチモーダルタスクを実行することができる。
マルチモーダル命令と呼ばれる宣言型タスクインタフェース上に構築された汎用モデル学習システムOFASysをリリースする。
論文 参考訳(メタデータ) (2022-12-08T17:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。