論文の概要: A Predict-Then-Optimize Customer Allocation Framework for Online Fund Recommendation
- arxiv url: http://arxiv.org/abs/2503.03165v1
- Date: Wed, 05 Mar 2025 04:16:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:23.599938
- Title: A Predict-Then-Optimize Customer Allocation Framework for Online Fund Recommendation
- Title(参考訳): オンライン・ファンド・レコメンデーションのための予測的最適顧客アロケーション・フレームワーク
- Authors: Xing Tang, Yunpeng Weng, Fuyuan Lyu, Dugang Liu, Xiuqiang He,
- Abstract要約: 中心的な課題は、制約の下で潜在的顧客と資金を一致させることだ。
従来のレコメンデーション・レコメンデーション・レコメンデーション・レコメンデーションは、ファンドマッチング問題に複数の制約を課す際に固有の欠点がある。
顧客行動に基づいた予測収益予測を目的とした予測資金配分フレームワークであるPTOFAを設計する。
- 参考スコア(独自算出の注目度): 11.645776345951134
- License:
- Abstract: With the rapid growth of online investment platforms, funds can be distributed to individual customers online. The central issue is to match funds with potential customers under constraints. Most mainstream platforms adopt the recommendation formulation to tackle the problem. However, the traditional recommendation regime has its inherent drawbacks when applying the fund-matching problem with multiple constraints. In this paper, we model the fund matching under the allocation formulation. We design PTOFA, a Predict-Then-Optimize Fund Allocation framework. This data-driven framework consists of two stages, i.e., prediction and optimization, which aim to predict expected revenue based on customer behavior and optimize the impression allocation to achieve the maximum revenue under the necessary constraints, respectively. Extensive experiments on real-world datasets from an industrial online investment platform validate the effectiveness and efficiency of our solution. Additionally, the online A/B tests demonstrate PTOFA's effectiveness in the real-world fund recommendation scenario.
- Abstract(参考訳): オンライン投資プラットフォームの急速な成長により、資金は個々の顧客にオンラインで分配できる。
中心的な課題は、制約の下で潜在的顧客と資金を一致させることだ。
ほとんどの主流プラットフォームでは、この問題に対処するためにレコメンデーションの定式化を採用している。
しかし、従来のレコメンデーション・レコメンデーション・レコメンデーション・レコメンデーション・レコメンデーション・レコメンデーション・レコメンデーションは、ファンドマッチング問題を複数の制約で適用する際に固有の欠点がある。
本稿では、アロケーションの定式化に基づく資金マッチングをモデル化する。
PTOFA(Predict-Then-Optimize Fund Allocation framework)を設計する。
データ駆動型フレームワークは、予測と最適化という2つの段階から構成され、顧客行動に基づいて予測される収益を予測し、必要な制約の下で最大収益を達成するための印象割り当てを最適化することを目的としている。
産業用オンライン投資プラットフォームによる実世界のデータセットに関する大規模な実験により、ソリューションの有効性と効率が検証された。
さらに、オンラインA/Bテストでは、PTOFAが現実世界のファンドレコメンデーションシナリオで有効であることを実証している。
関連論文リスト
- Federated Fine-Tuning of Large Language Models: Kahneman-Tversky vs. Direct Preference Optimization [49.88778604259453]
我々は,大言語モデル (LLM) をフェデレート学習 (FL) 設定で微調整する方法として,KTO (Kahneman-Tversky Optimization) を評価した。
オリジナルの(KTOO)と再配布された(KTOR)構成の両方において、KTOはすべてのベンチマークで一貫してDPOを上回っている。
これらの知見は、KTOをFLの堅牢でスケーラブルな微調整方法として確立し、プライバシー保護、分散化、異種環境への採用を動機付けている。
論文 参考訳(メタデータ) (2025-02-20T01:44:21Z) - Demystifying Domain-adaptive Post-training for Financial LLMs [79.581577578952]
FINDAPは、大規模言語モデル(LLM)のドメイン適応後学習に関する体系的できめ細かな研究である
このアプローチは、FinCap、FinRec、FinTrain、FinEvalの4つの重要なコンポーネントで構成されています。
結果として得られるモデルであるLlama-Finは、幅広い財務タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-01-09T04:26:15Z) - Joint Resource Optimization, Computation Offloading and Resource Slicing for Multi-Edge Traffic-Cognitive Networks [0.0]
本稿では,プラットフォームとESの両方が自己関心を持つエンティティであるマルチエージェントシステムについて検討する。
そこで我々は,利害関係者間の相互作用をモデル化し,最適化問題を解くための新しいゲームベースフレームワークStackelbergを提案する。
さらに、ニューラルネットワーク最適化とプライバシ保護情報交換プロトコルを活用した分散ソリューションを設計する。
論文 参考訳(メタデータ) (2024-11-26T11:51:10Z) - $α$-DPO: Adaptive Reward Margin is What Direct Preference Optimization Needs [45.46582930202524]
$alpha$-DPOは、大規模言語モデルの適応的優先最適化アルゴリズムである。
ポリシーモデルと参照モデルのバランスを取り、パーソナライズされた報酬マージンを達成する。
さまざまなモデル設定でDPOとSimPOを一貫して上回ります。
論文 参考訳(メタデータ) (2024-10-14T04:29:57Z) - End-to-End Cost-Effective Incentive Recommendation under Budget Constraint with Uplift Modeling [12.160403526724476]
本稿では,予算制約下でのエンド・ツー・エンド・エンド・コスト・エフェクティブ・インセンティブ・レコメンデーション(E3IR)モデルを提案する。
具体的には、アップリフト予測モジュールと微分可能なアロケーションモジュールの2つのモジュールから構成される。
E3IRは既存の2段階アプローチに比べてアロケーション性能が向上する。
論文 参考訳(メタデータ) (2024-08-21T13:48:00Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - ZooPFL: Exploring Black-box Foundation Models for Personalized Federated
Learning [95.64041188351393]
本稿では,限られた資源とパーソナライゼーションの両課題を解決しようと試みる。
個人化フェデレート学習におけるゼロ階最適化を用いたZOOPFLという手法を提案する。
計算コストの削減とパーソナライゼーションの向上を目的として,低次元およびクライアント固有の埋め込みを持つオートエンコーダを組み込む入力手術を提案する。
論文 参考訳(メタデータ) (2023-10-08T12:26:13Z) - Optimizing Credit Limit Adjustments Under Adversarial Goals Using
Reinforcement Learning [42.303733194571905]
我々は、強化学習技術を用いて最適なクレジットカード制限調整ポリシーを発見し、自動化することを模索する。
本研究は、信用限度調整に強化学習フレームワークを適用するための概念構造を確立する。
論文 参考訳(メタデータ) (2023-06-27T16:10:36Z) - Online Learning under Budget and ROI Constraints via Weak Adaptivity [57.097119428915796]
制約付きオンライン学習問題に対する既存の原始双対アルゴリズムは、2つの基本的な仮定に依存している。
このような仮定は、標準の原始双対テンプレートを弱適応的後悔最小化器で与えることによって、どのように回避できるのかを示す。
上記の2つの前提が満たされていない場合に保証される、世界の最高の保証を証明します。
論文 参考訳(メタデータ) (2023-02-02T16:30:33Z) - Towards Deployment-Efficient Reinforcement Learning: Lower Bound and
Optimality [141.89413461337324]
展開効率は、強化学習(RL)の多くの実世界の応用にとって重要な基準である
本稿では,「制約付き最適化」の観点から,デプロイ効率の高いRL(DE-RL)の理論的定式化を提案する。
論文 参考訳(メタデータ) (2022-02-14T01:31:46Z) - LBCF: A Large-Scale Budget-Constrained Causal Forest Algorithm [11.82503645248441]
予算制約の下で各ユーザに対して適切なインセンティブ(すなわち治療)を選択する方法が重要な研究課題である。
本稿では,大規模予算制約付き因果樹林 (LBCF) アルゴリズムと呼ばれる,予算制約下での新規な木に基づく治療選択手法を提案する。
当社のアプローチは,ユーザのキャンペーンエンゲージメント期間を増やすために,大規模なビデオプラットフォーム上で現実のシナリオに展開する。
論文 参考訳(メタデータ) (2022-01-29T13:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。