論文の概要: Streaming Bayesian Modeling for predicting Fat-Tailed Customer Lifetime
Value
- arxiv url: http://arxiv.org/abs/2312.00373v1
- Date: Fri, 1 Dec 2023 06:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 15:28:31.035076
- Title: Streaming Bayesian Modeling for predicting Fat-Tailed Customer Lifetime
Value
- Title(参考訳): Fat-Tailed Customer Lifetime Value 予測のためのストリーミングベイズモデル
- Authors: Alexey V. Calabourdin, Konstantin A. Aksenov
- Abstract要約: 我々は階層型ベイズモデルとGLMSに適用可能なオンライン学習MCMCアプローチを開発した。
また,太い尾と細い尾を一般化した,太い尾のLTVモデルも開発している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop an online learning MCMC approach applicable for hierarchical
bayesian models and GLMS. We also develop a fat-tailed LTV model that
generalizes over several kinds of fat and thin tails. We demonstrate both
developments on commercial LTV data from a large mobile app.
- Abstract(参考訳): 我々は階層ベイズモデルとGLMSに適用可能なオンライン学習MCMCアプローチを開発した。
また,複数種類の脂肪と薄い尾を一般化したltvモデルを開発した。
大型モバイルアプリの商用LTVデータにおける両開発の成果を実証する。
関連論文リスト
- xGen-MM (BLIP-3): A Family of Open Large Multimodal Models [157.44696790158784]
本稿では,LMM(Large Multimodal Models)を開発するためのフレームワークであるxGen-MMを紹介する。
このフレームワークは、慎重にキュレートされたデータセット、トレーニングレシピ、モデルアーキテクチャ、結果のLMMスイートで構成されている。
私たちのモデルは、シングルイメージとマルチイメージのベンチマークを含む、さまざまなタスクにわたって厳格な評価を受けています。
論文 参考訳(メタデータ) (2024-08-16T17:57:01Z) - Data-Juicer Sandbox: A Comprehensive Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは包括的な実験プラットフォームを提供し、データとモデルの両方の迅速なイテレーションと洞察駆動による改善を可能にする。
また、徹底的なベンチマークから得られた実りある洞察を明らかにし、データ品質、多様性、モデル行動の間の重要な相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Exploring the Role of Large Language Models in Prompt Encoding for Diffusion Models [42.891427362223176]
デコーダのみの変換器をベースとした大規模言語モデル(LLM)は、優れたテキスト理解能力を示している。
LLMの能力をフル活用するための新しいフレームワークを提案する。
さらに, LLM-Infused Diffusion Transformer (LI-DiT) を設計した。
論文 参考訳(メタデータ) (2024-06-17T17:59:43Z) - Xmodel-VLM: A Simple Baseline for Multimodal Vision Language Model [7.082567506213992]
本稿では,最先端のマルチモーダル視覚言語モデルであるXmodel-VLMを紹介する。
コンシューマGPUサーバへの効率的なデプロイのために設計されている。
論文 参考訳(メタデータ) (2024-05-15T09:47:59Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - LTGC: Long-tail Recognition via Leveraging LLMs-driven Generated Content [17.022005679738733]
尾の認識は、尾のカテゴリから良い表現を学習し、すべてのカテゴリで不均衡に対処する必要があるため、困難である。
そこで本研究では,生成コンテンツを利用した長期認識を実現するための,新たな生成および微調整フレームワークLTGCを提案する。
論文 参考訳(メタデータ) (2024-03-09T09:52:15Z) - TinyLLaVA: A Framework of Small-scale Large Multimodal Models [11.686023770810937]
本研究では,異なる視覚エンコーダ,接続モジュール,言語モデル,トレーニングデータ,トレーニングレシピの効果について検討する。
我々は,LLaVA-1.5 や Qwen-VL といった既存の 7B モデルに対して,我々の最良のモデル TinyLLaVA-3.1B を訓練する。
論文 参考訳(メタデータ) (2024-02-22T05:05:30Z) - MobileVLM V2: Faster and Stronger Baseline for Vision Language Model [73.74838586081385]
我々は、MobileVLM上で大幅に改善された視覚言語モデルのファミリーであるMobileVLM V2を紹介する。
MobileVLM V2 1.7Bは、標準のVLMベンチマークにおいて、3Bスケールでのはるかに大きなVLMよりも優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-06T07:16:36Z) - LLM-grounded Video Diffusion Models [57.23066793349706]
ビデオ拡散モデルは、ニューラル・テンポラル・ジェネレーションのための有望なツールとして登場した。
現在のモデルはプロンプトに苦しむが、しばしば制限されたり、誤った動きをする。
LLM-grounded Video Diffusion (LVD)を紹介する。
以上の結果から,LVDはベース映像拡散モデルよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-29T17:54:46Z) - WanJuan: A Comprehensive Multimodal Dataset for Advancing English and
Chinese Large Models [69.96148259273065]
ワンフアン(Wan Juan)は、中国語と英語のデータからなる大規模なマルチモーダルデータセットであり、幅広いWebソースから収集されている。
同様のスケールのモデルと比較して,多次元評価において有意な優位性を示すモデルであるInternLMのトレーニングに利用された。
論文 参考訳(メタデータ) (2023-08-21T14:40:48Z) - Billion-user Customer Lifetime Value Prediction: An Industrial-scale
Solution from Kuaishou [19.31651596803956]
顧客ライフタイムバリュー(英:Customer Life Time Value、LTV)は、単一のユーザがビジネスにもたらすことができる総収入である。
LTVのモデリングは、複雑で変更可能なデータ分散のため、難しい問題である。
我々は、異なる時間帯のLTV間の順序依存をモデル化する秩序依存モノトニックネットワーク(ODMN)を導入する。
論文 参考訳(メタデータ) (2022-08-29T04:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。