論文の概要: The Best is Yet to Come: Graph Convolution in the Testing Phase for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2507.18489v1
- Date: Thu, 24 Jul 2025 15:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.914295
- Title: The Best is Yet to Come: Graph Convolution in the Testing Phase for Multimodal Recommendation
- Title(参考訳): マルチモーダルなレコメンデーションのためのテストフェーズにおけるグラフの畳み込み
- Authors: Jinfeng Xu, Zheyu Chen, Shuo Yang, Jinze Li, Edith C. H. Ngai,
- Abstract要約: 本稿では,マルチモーダルレコメンデーションシステムにおける学習段階におけるグラフ畳み込みネットワーク導入に伴う課題を批判的に指摘する。
我々は,テスト段階でのみグラフ畳み込みをデプロイするフレームワークであるFastMMRecを提案する。
- 参考スコア(独自算出の注目度): 8.280742396160827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The efficiency and scalability of graph convolution networks (GCNs) in training recommender systems remain critical challenges, hindering their practical deployment in real-world scenarios. In the multimodal recommendation (MMRec) field, training GCNs requires more expensive time and space costs and exacerbates the gap between different modalities, resulting in sub-optimal recommendation accuracy. This paper critically points out the inherent challenges associated with adopting GCNs during the training phase in MMRec, revealing that GCNs inevitably create unhelpful and even harmful pairs during model optimization and isolate different modalities. To this end, we propose FastMMRec, a highly efficient multimodal recommendation framework that deploys graph convolutions exclusively during the testing phase, bypassing their use in training. We demonstrate that adopting GCNs solely in the testing phase significantly improves the model's efficiency and scalability while alleviating the modality isolation problem often caused by using GCNs during the training phase. We conduct extensive experiments on three public datasets, consistently demonstrating the performance superiority of FastMMRec over competitive baselines while achieving efficiency and scalability.
- Abstract(参考訳): トレーニングレコメンデータシステムにおけるグラフ畳み込みネットワーク(GCN)の効率性とスケーラビリティは依然として重要な課題であり、現実のシナリオにおける実際の展開を妨げる。
マルチモーダルレコメンデーション(MMRec)分野において、トレーニングGCNはより高価な時間と空間コストを必要とし、異なるモダリティ間のギャップを悪化させ、その結果、サブ最適レコメンデーションの精度が向上する。
本稿では,MMRecのトレーニング段階におけるGCNの導入に伴う固有の課題を批判的に指摘し,モデル最適化においてGCNが必然的に有害で有害なペアを生成し,異なるモダリティを分離することを明らかにする。
この目的のために我々はFastMMRecを提案する。これは高効率なマルチモーダル・レコメンデーション・フレームワークで、テスト段階でのみグラフの畳み込みをデプロイし、トレーニングでの使用を回避している。
テストフェーズのみにGCNを採用することで、トレーニングフェーズ中にGCNを使用することによって生じるモダリティ分離問題を緩和しつつ、モデルの効率性とスケーラビリティが大幅に向上することを示した。
我々は3つの公開データセットに対して広範な実験を行い、効率とスケーラビリティを達成しつつ、競合するベースラインよりもFastMMRecの性能上の優位性を一貫して実証した。
関連論文リスト
- A Scalable Pretraining Framework for Link Prediction with Efficient Adaptation [16.82426251068573]
リンク予測(LP)は、グラフ機械学習において重要なタスクである。
既存の手法は、疎結合性からの限られた監督を含む重要な課題に直面している。
これらの課題に対処するためのソリューションとして,事前学習について検討する。
論文 参考訳(メタデータ) (2025-08-06T17:10:31Z) - Fast and Stable Diffusion Planning through Variational Adaptive Weighting [3.745003761050674]
拡散モデルは、最近オフラインRLで有望であることが示されている。
これらの手法は、しばしば高い訓練コストと緩やかな収束に悩まされる。
本稿では,フローベース生成モデルに基づくオンライン推定のためのクローズドフォーム近似手法を提案する。
Maze2D タスクと Kitchen タスクの実験結果から,本手法は最大10倍のトレーニングステップで競争性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-06-20T02:12:04Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Amortized Bayesian Workflow [13.070972788633915]
金標準MCMC技術と高速な償却推論を統合した適応ワークフローを提案する。
提案手法では,各データセットに対する推論手法の選択を導出するために,原則付き診断を用いる。
我々は、この統合されたアプローチが、数万のデータセットを持ついくつかの合成および実世界の問題に対して有効であることを示す。
論文 参考訳(メタデータ) (2024-09-06T15:09:04Z) - FADAS: Towards Federated Adaptive Asynchronous Optimization [56.09666452175333]
フェデレートラーニング(FL)は、プライバシ保護機械学習のトレーニングパラダイムとして広く採用されている。
本稿では、非同期更新を適応的フェデレーション最適化と証明可能な保証に組み込む新しい手法であるFADASについて紹介する。
提案アルゴリズムの収束率を厳格に確立し,FADASが他の非同期FLベースラインよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-07-25T20:02:57Z) - ATE-SG: Alternate Through the Epochs Stochastic Gradient for Multi-Task Neural Networks [44.99833362998488]
本稿では,ハードパラメータ共有マルチタスクニューラルネットワーク(MTNN)のための新しい代替トレーニング手法を提案する。
提案した代替トレーニング手法では,タスク固有の重みをエポックを通じて交互に更新し,モデルのマルチヘッドアーキテクチャを活用する。
実証実験では、訓練の正規化と計算要求の削減が実証された。
論文 参考訳(メタデータ) (2023-12-26T21:33:03Z) - DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。