論文の概要: The Generalized Cascade Click Model: A Unified Framework for Estimating
Click Models
- arxiv url: http://arxiv.org/abs/2111.11314v1
- Date: Mon, 22 Nov 2021 16:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 20:01:15.834857
- Title: The Generalized Cascade Click Model: A Unified Framework for Estimating
Click Models
- Title(参考訳): 一般化カスケードクリックモデル:クリックモデルを推定するための統一フレームワーク
- Authors: Corn\'e de Ruijt and Sandjai Bhulai
- Abstract要約: 本稿では、一般化モデル(GCM)を提案し、このモデルをIO-HMM EMフレームワークを用いてどのように推定するかを示す。
クリックモデルを推定するためのGCMアプローチもgecasmo Pythonパッケージに実装されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given the vital importance of search engines to find digital information,
there has been much scientific attention on how users interact with search
engines, and how such behavior can be modeled. Many models on user - search
engine interaction, which in the literature are known as click models, come in
the form of Dynamic Bayesian Networks. Although many authors have used the
resemblance between the different click models to derive estimation procedures
for these models, in particular in the form of expectation maximization (EM),
still this commonly requires considerable work, in particular when it comes to
deriving the E-step. What we propose in this paper, is that this derivation is
commonly unnecessary: many existing click models can in fact, under certain
assumptions, be optimized as they were Input-Output Hidden Markov Models
(IO-HMMs), for which the forward-backward equations immediately provide this
E-step. To arrive at that conclusion, we will present the Generalized Cascade
Model (GCM) and show how this model can be estimated using the IO-HMM EM
framework, and provide two examples of how existing click models can be mapped
to GCM. Our GCM approach to estimating click models has also been implemented
in the gecasmo Python package.
- Abstract(参考訳): デジタル情報を見つけるための検索エンジンの重要性を考えると、ユーザーが検索エンジンとどのように相互作用するか、どのように振舞うかが科学的に注目されている。
ユーザに関する多くのモデル - クリックモデルとして知られる検索エンジンのインタラクションは、動的ベイズネットワーク(Dynamic Bayesian Networks)の形で行われる。
多くの著者は、これらのモデルの見積もり手順、特に期待最大化(em)という形で、異なるクリックモデル間の類似性を用いているが、それでも、特にeステップの導出に関して、かなりの作業を必要とする。
既存のクリックモデルの多くは、特定の仮定の下で、入力出力型隠れマルコフモデル(io-hmms)であるように最適化することができる。
この結論に達するために、一般化カスケードモデル(GCM)を提示し、IO-HMM EMフレームワークを用いてどのようにこのモデルを推定できるかを示し、既存のクリックモデルをGCMにマップする方法の2つの例を示す。
クリックモデル推定のためのgcmアプローチもgecasmo pythonパッケージに実装されています。
関連論文リスト
- A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Exploring Model Kinship for Merging Large Language Models [52.01652098827454]
本稿では,大規模言語モデル間の類似性や関連性の程度であるモデル親和性を紹介する。
モデル統合後の性能向上とモデル親和性の間には,一定の関係があることが判明した。
我々は新しいモデルマージ戦略を提案する。Top-k Greedy Merging with Model Kinship。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Continuous Language Model Interpolation for Dynamic and Controllable Text Generation [7.535219325248997]
私たちは、モデルが多様な、そしてしばしば変化する、ユーザの好みに動的に適応しなければならない、困難なケースに注目します。
線形重みに基づく適応手法を活用し、連続的なマルチドメイン補間子としてキャストする。
重みの変化がモデル出力の予測可能かつ一貫した変化をもたらすことを示す。
論文 参考訳(メタデータ) (2024-04-10T15:55:07Z) - Earning Extra Performance from Restrictive Feedbacks [41.05874087063763]
モデルチューニング問題の形式を記述するために,rerestriCTive feeddbacks (EXPECTED) から emphEarning eXtra PerformancE という課題を設定した。
モデルプロバイダの目標は、最終的にフィードバックを利用することで、ローカルユーザに対して満足のいくモデルを提供することです。
本稿では,パラメータ分布を探索し,モデルパラメータに関するモデル性能の幾何を特徴付けることを提案する。
論文 参考訳(メタデータ) (2023-04-28T13:16:54Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - When Ensembling Smaller Models is More Efficient than Single Large
Models [52.38997176317532]
アンサンブルは高い精度で単一モデルより優れており、計算に要する総FLOPは少ない。
これは、アンサンブルの出力の多様性がより大きなモデルを訓練するよりも効率的であることを示す興味深い観察結果である。
論文 参考訳(メタデータ) (2020-05-01T18:56:18Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。