論文の概要: Fast Approximate Bayesian Contextual Cold Start Learning (FAB-COST)
- arxiv url: http://arxiv.org/abs/2008.08038v1
- Date: Tue, 18 Aug 2020 17:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 20:54:41.786859
- Title: Fast Approximate Bayesian Contextual Cold Start Learning (FAB-COST)
- Title(参考訳): 高速近似ベイズ文脈冷間開始学習(FAB-COST)
- Authors: Jack R. McKenzie, Peter A. Appleby, Thomas House, Neil Walton
- Abstract要約: The Fast Approximate Bayesian Contextual Cold Start Learning Algorithm (FAB-COST)が提案されている。
これは、ロジスティックな文脈的帯域における従来のラプラス近似よりも精度が向上する。
FAB-COSTは,様々な状況下でのコールドスタートレコメンデーションシステムにおいて,魅力的なアプローチである可能性が高い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cold-start is a notoriously difficult problem which can occur in
recommendation systems, and arises when there is insufficient information to
draw inferences for users or items. To address this challenge, a contextual
bandit algorithm -- the Fast Approximate Bayesian Contextual Cold Start
Learning algorithm (FAB-COST) -- is proposed, which is designed to provide
improved accuracy compared to the traditionally used Laplace approximation in
the logistic contextual bandit, while controlling both algorithmic complexity
and computational cost. To this end, FAB-COST uses a combination of two moment
projection variational methods: Expectation Propagation (EP), which performs
well at the cold start, but becomes slow as the amount of data increases; and
Assumed Density Filtering (ADF), which has slower growth of computational cost
with data size but requires more data to obtain an acceptable level of
accuracy. By switching from EP to ADF when the dataset becomes large, it is
able to exploit their complementary strengths. The empirical justification for
FAB-COST is presented, and systematically compared to other approaches on
simulated data. In a benchmark against the Laplace approximation on real data
consisting of over $670,000$ impressions from autotrader.co.uk, FAB-COST
demonstrates at one point increase of over $16\%$ in user clicks. On the basis
of these results, it is argued that FAB-COST is likely to be an attractive
approach to cold-start recommendation systems in a variety of contexts.
- Abstract(参考訳): コールドスタートは、レコメンデーションシステムで起こりうる非常に難しい問題であり、ユーザやアイテムの推論に不十分な情報がある場合に発生する。
この課題に対処するために、アルゴリズムの複雑さと計算コストの両方を制御しながら、ロジスティックな文脈的包帯における従来のラプラス近似と比較して精度を向上させるために、文脈的包帯アルゴリズム(Fast Approximate Bayesian Contextual Cold Start Learning Algorithm (FAB-COST))を提案する。
この目的のためにfab-costは2つのモーメントプロジェクション変分法(ep)と、データ量の増加に伴って遅くなる期待伝播(ep)と、データサイズで計算コストの成長が遅いが、許容される精度を得るためにより多くのデータを必要とする仮定密度フィルタリング(adf)を組み合わせた。
データセットが大きくなるとEPからAFFに切り替えることで、補完的な強みを活用できる。
FAB-COSTの実証的正当性を示し、シミュレーションデータに対する他のアプローチと比較した。
autotrader.co.ukによる670,000ドル以上のインプレッションを含む実データに対するラプラス近似に対するベンチマークでは、fab-costは、ある時点でユーザクリックの16\%以上の増加を示している。
これらの結果に基づいて,FAB-COSTは,様々な状況下での冷間開始レコメンデーションシステムに魅力的なアプローチである可能性が示唆された。
関連論文リスト
- Towards Resource-Efficient Federated Learning in Industrial IoT for Multivariate Time Series Analysis [50.18156030818883]
異常と欠落したデータは、産業応用における厄介な問題を構成する。
ディープラーニングによる異常検出が重要な方向として現れている。
エッジデバイスで収集されたデータは、ユーザのプライバシを含む。
論文 参考訳(メタデータ) (2024-11-06T15:38:31Z) - Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Minimax and Communication-Efficient Distributed Best Subset Selection with Oracle Property [0.358439716487063]
大規模データの爆発はシングルマシンシステムの処理能力を上回っている。
分散推論への伝統的なアプローチは、高次元データセットにおいて真の疎性を達成するのにしばしば苦労する。
そこで本稿では,これらの問題に対処する2段階分散ベストサブセット選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-30T13:22:08Z) - Byzantine-resilient Federated Learning Employing Normalized Gradients on Non-IID Datasets [23.640506243685863]
実践的連合学習(FLNGA)では、悪意のある攻撃やデータ不均一性の存在が学習プロセスにバイアスをもたらすことが多い。
本稿では、アップロードされた局所勾配をアグリゲーションの前に正規化する正規化勾配単位(Fed-M)モデルを提案し、$mathcalO(pM)$を達成した。
論文 参考訳(メタデータ) (2024-08-18T16:50:39Z) - SHAP@k:Efficient and Probably Approximately Correct (PAC) Identification
of Top-k Features [16.99004256148679]
本稿では,トップk識別問題(TkIP)を紹介し,最も高いSHAP値を持つk特徴を特定することを目的とする。
我々の研究の目的は、TkIP解決の文脈において、既存の手法のサンプル効率を改善することである。
論文 参考訳(メタデータ) (2023-07-10T18:42:45Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Deep Active Ensemble Sampling For Image Classification [8.31483061185317]
アクティブラーニングフレームワークは、最も有益なデータポイントのラベル付けを積極的に要求することで、データアノテーションのコストを削減することを目的としている。
提案手法には、不確実性に基づく手法、幾何学的手法、不確実性に基づく手法と幾何学的手法の暗黙の組み合わせなどがある。
本稿では, サンプル選択戦略における効率的な探索・探索トレードオフを実現するために, 不確実性に基づくフレームワークと幾何学的フレームワークの両方の最近の進歩を革新的に統合する。
本フレームワークは,(1)正確な後続推定,(2)計算オーバーヘッドと高い精度のトレードオフの2つの利点を提供する。
論文 参考訳(メタデータ) (2022-10-11T20:20:20Z) - Large-Scale Sequential Learning for Recommender and Engineering Systems [91.3755431537592]
本稿では,現在の状況に適応してパーソナライズされたランキングを提供する自動アルゴリズムの設計に焦点を当てる。
前者はSAROSと呼ばれる新しいアルゴリズムを提案し,インタラクションの順序を学習するためのフィードバックの種類を考慮に入れている。
提案手法は, 電力網の故障検出に対する初期アプローチと比較して, 統計的に有意な結果を示す。
論文 参考訳(メタデータ) (2022-05-13T21:09:41Z) - Sample-based and Feature-based Federated Learning via Mini-batch SSCA [18.11773963976481]
本稿ではサンプルベースおよび特徴ベース連合最適化について検討する。
提案アルゴリズムは,モデルアグリゲーション機構を通じてデータプライバシを保持できることを示した。
また,提案アルゴリズムは,各フェデレーション最適化問題のKarush-Kuhn-Tucker点に収束することを示した。
論文 参考訳(メタデータ) (2021-04-13T08:23:46Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。