論文の概要: Federated Cross-Domain Click-Through Rate Prediction With Large Language Model Augmentation
- arxiv url: http://arxiv.org/abs/2503.16875v1
- Date: Fri, 21 Mar 2025 06:22:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:57:31.779784
- Title: Federated Cross-Domain Click-Through Rate Prediction With Large Language Model Augmentation
- Title(参考訳): 大規模言語モデル拡張によるFederated Cross-Domain Click-Through Rate予測
- Authors: Jiangcheng Qin, Xueyuan Zhang, Baisong Liu, Jiangbo Qian, Yangyang Wang,
- Abstract要約: 大規模言語モデル拡張(FedCCTR-LM)を用いたFedCCTR予測について述べる。
まずプライバシ保護強化ネットワーク(PrivNet)では,ユーザとアイテムの表現を充実させるために,大規模な言語モデルを採用している。
第2に、IDST-CL(Independent Domain-Specific Transformer with Contrastive Learning)モジュールは、ドメイン固有の、共有されたユーザの好みを乱す。
第3に、Adaptive Local Differential Privacy(AdaLDP)メカニズムは、ノイズ注入を動的に校正し、厳密なプライバシー保証と予測精度の最適なバランスを実現する。
- 参考スコア(独自算出の注目度): 4.978132660177235
- License:
- Abstract: Accurately predicting click-through rates (CTR) under stringent privacy constraints poses profound challenges, particularly when user-item interactions are sparse and fragmented across domains. Conventional cross-domain CTR (CCTR) methods frequently assume homogeneous feature spaces and rely on centralized data sharing, neglecting complex inter-domain discrepancies and the subtle trade-offs imposed by privacy-preserving protocols. Here, we present Federated Cross-Domain CTR Prediction with Large Language Model Augmentation (FedCCTR-LM), a federated framework engineered to address these limitations by synchronizing data augmentation, representation disentanglement, and adaptive privacy protection. Our approach integrates three core innovations. First, the Privacy-Preserving Augmentation Network (PrivAugNet) employs large language models to enrich user and item representations and expand interaction sequences, mitigating data sparsity and feature incompleteness. Second, the Independent Domain-Specific Transformer with Contrastive Learning (IDST-CL) module disentangles domain-specific and shared user preferences, employing intra-domain representation alignment (IDRA) and crossdomain representation disentanglement (CDRD) to refine the learned embeddings and enhance knowledge transfer across domains. Finally, the Adaptive Local Differential Privacy (AdaLDP) mechanism dynamically calibrates noise injection to achieve an optimal balance between rigorous privacy guarantees and predictive accuracy. Empirical evaluations on four real-world datasets demonstrate that FedCCTR-LM substantially outperforms existing baselines, offering robust, privacy-preserving, and generalizable cross-domain CTR prediction in heterogeneous, federated environments.
- Abstract(参考訳): 厳密なプライバシー制約の下でのクリックスルーレート(CTR)の正確な予測は、特にユーザとイテムのインタラクションがドメイン間で疎結合で断片化されている場合、重大な課題を引き起こす。
従来のクロスドメインCTR(CCTR)メソッドは、しばしば均質な特徴空間を仮定し、集中的なデータ共有に依存し、複雑なドメイン間の不一致やプライバシー保護プロトコルによって課される微妙なトレードオフを無視している。
本稿では、データ拡張、表現のゆがみ、適応プライバシー保護を同期させることにより、これらの制限に対処するために設計されたフェデレーションフレームワークである、FedCCTR-LM(FedCCTR-LM)について述べる。
このアプローチは3つのコアイノベーションを統合します。
第一に、PrivAugNet(PrivAugNet)は、ユーザとアイテムの表現を充実させ、インタラクションシーケンスを拡張し、データのスパーシリティと機能の不完全性を緩和するために、大きな言語モデルを使用している。
第2に、IDST-CL(Independent Domain-Specific Transformer with Contrastive Learning)モジュールは、ドメイン固有の、共有されたユーザの好みを乱し、ドメイン内表現アライメント(IDRA)とクロスドメイン表現アライメント(CDRD)を用いて、学習した埋め込みを洗練し、ドメイン間の知識伝達を強化する。
最後に、Adaptive Local Differential Privacy(AdaLDP)メカニズムは、ノイズ注入を動的に校正し、厳密なプライバシー保証と予測精度の最適なバランスを実現する。
4つの実世界のデータセットに対する実証的な評価は、FedCCTR-LMが既存のベースラインを大幅に上回り、不均一なフェデレーション環境で堅牢でプライバシ保護、一般化可能なクロスドメインCTR予測を提供することを示している。
関連論文リスト
- A Zero-Shot Generalization Framework for LLM-Driven Cross-Domain Sequential Recommendation [5.512301280728178]
ゼロショットクロスドメインシーケンシャルレコメンデーション(ZCDSR)は、追加のトレーニングや微調整を必要とせずに、目に見えないドメインでの予測を可能にする。
大規模言語モデル(LLM)の最近の進歩は、豊富な事前訓練された表現を活用してドメイン間の知識伝達を促進することで、ZCDSRを大幅に改善している。
アイテムレベルとシーケンシャルレベルの両方においてドメイン間のアライメントを改善することで、LCMベースのZCDSRを強化するように設計された新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-31T15:43:21Z) - FedAlign: Federated Domain Generalization with Cross-Client Feature Alignment [2.4472081831862655]
Federated Learning (FL)は、直接的なデータ共有なしに協調的なモデルトレーニングのための分散パラダイムを提供する。
ドメイン一般化(DG)には、厳密なプライバシー制約、非i.d.ローカルデータ、ドメインの多様性の制限など、ユニークな課題がある。
我々はフェデレーション設定におけるDGを強化するために設計された軽量なプライバシ保護フレームワークであるFedAlignを紹介する。
論文 参考訳(メタデータ) (2025-01-26T11:17:32Z) - Exploiting Aggregation and Segregation of Representations for Domain Adaptive Human Pose Estimation [50.31351006532924]
人間のポーズ推定(HPE)は最近、モーション分析、バーチャルリアリティー、ヘルスケア等に広く応用されているため、注目を集めている。
時間と労働集約的なアノテーションのために、ラベル付き現実世界のデータセットが不足している。
本稿では,ドメイン適応型人間のポーズ推定のための表現集約と分離を両立させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-29T17:59:45Z) - Towards Robust Cross-Domain Recommendation with Joint Identifiability of User Preference [31.22912313591263]
クロスドメインレコメンデーション(CDR)研究は、ドメイン共有とドメイン固有のユーザ表現がドメインギャップを緩和し、効果的な知識伝達を促進すると仮定している。
本稿では,ドメイン間のユーザ表現のユニークな対応を確立する共同識別可能性のモデル化を提案する。
本手法は, 相関の弱いタスクであっても, 常に最先端のタスクを超越していることを示す。
論文 参考訳(メタデータ) (2024-11-26T12:08:06Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Enhancing Federated Domain Adaptation with Multi-Domain Prototype-Based Federated Fine-Tuning [15.640664498531274]
フェデレーション・ドメイン適応(Federated Domain Adaptation, FDA)は、フェデレーション・ラーニング(FL)シナリオである。
我々はtextbfMulti- domain textbfPrototype-based textbfFederated Fine-textbfTuning (MPFT) と呼ばれる新しいフレームワークを提案する。
MPFTファインチューン(英: MPFT fine-tunes)は、マルチドメインのプロトタイプ、すなわち、カテゴリ固有のローカルデータから、ドメイン固有の情報に富んだ事前訓練された表現を用いた事前訓練されたモデルである。
論文 参考訳(メタデータ) (2024-10-10T09:15:56Z) - Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [87.49293964617128]
Federated Domain-specific Instruction Tuning (FedDIT)は、限られたクロスクライアントなプライベートデータと、命令拡張のさまざまな戦略を利用する。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
クライアント側の計算効率とシステムのスケーラビリティのために、FedDCAの変種であるFedDCA$*$はサーバ側の特徴アライメントを備えた異種エンコーダを利用する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。