論文の概要: A Point Process Model for Optimizing Repeated Personalized Action Delivery to Users
- arxiv url: http://arxiv.org/abs/2501.02961v1
- Date: Mon, 06 Jan 2025 12:09:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:09:10.393636
- Title: A Point Process Model for Optimizing Repeated Personalized Action Delivery to Users
- Title(参考訳): ユーザへの繰り返しパーソナライズされたアクション配信を最適化するためのポイントプロセスモデル
- Authors: Alexander Merkov, David Rohde,
- Abstract要約: 本稿では,オンライン広告主におけるユーザ・アドバタイザのインタラクションにインスパイアされた因果推論問題に対するフォーマリズムを提供する。
すると、この形式は時間的マークされた点過程の拡張に特化され、神経点過程はいくつかの興味深い特別ケースに対する実用的な解として提案される。
- 参考スコア(独自算出の注目度): 52.26392437539938
- License:
- Abstract: This paper provides a formalism for an important class of causal inference problems inspired by user-advertiser interaction in online advertiser. Then this formalism is specialized to an extension of temporal marked point processes and the neural point processes are suggested as practical solutions to some interesting special cases.
- Abstract(参考訳): 本稿では,オンライン広告主におけるユーザ・アドバタイザのインタラクションにインスパイアされた因果推論問題に対するフォーマリズムを提供する。
すると、この形式は時間的マークされた点過程の拡張に特化され、神経点過程はいくつかの興味深い特別ケースに対する実用的な解として提案される。
関連論文リスト
- Generative Context Distillation [48.91617280112579]
Generative Context Distillation (GCD) は、ジョイントトレーニングアプローチを採用した軽量なプロンプト内在化手法である。
エージェントベースのアプリケーションシナリオにおいて,このアプローチが複雑なプロンプトを効果的に内部化することを示す。
論文 参考訳(メタデータ) (2024-11-24T17:32:20Z) - Prompt Tuning with Diffusion for Few-Shot Pre-trained Policy Generalization [55.14484317645865]
我々は,オフライン強化学習タスクにおいて,例外的な品質向上を促す条件拡散モデルを構築した。
本稿では,Promptディフューザがプロンプトチューニングプロセスの堅牢かつ効果的なツールであることを示し,メタRLタスクにおいて高い性能を示す。
論文 参考訳(メタデータ) (2024-11-02T07:38:02Z) - Position Debiasing Fine-Tuning for Causal Perception in Long-Term Dialogue [26.171522810457486]
対話システムの中核は、広範囲な対話履歴に基づいて、関連性、情報的、人間的な応答を生成することである。
そのようなモデルには、本来ある位置バイアスという自然な欠点がある。
本稿では,摂動に基づく因果変数探索手法を用いた因果知覚長期対話フレームワーク(CPD)を提案する。
論文 参考訳(メタデータ) (2024-06-04T06:33:13Z) - Spurious Feature Eraser: Stabilizing Test-Time Adaptation for Vision-Language Foundation Model [86.9619638550683]
視覚言語基礎モデルは、画像とテキストのペアデータに拡張性があるため、多数の下流タスクで顕著な成功を収めている。
しかし、これらのモデルは、決定ショートカットの結果、きめ細かな画像分類などの下流タスクに適用した場合に重大な制限を呈する」。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Promoting Open-domain Dialogue Generation through Learning Pattern
Information between Contexts and Responses [5.936682548344234]
本稿では,学習サンプルの文脈と応答の間の暗黙的なパターン情報を学ぶことにより,生成した応答の品質を向上させる。
また、文脈と応答間の暗黙的パターン情報をマイニングする応答認識機構を設計し、生成した応答をより多様でヒトの応答に近似するようにした。
論文 参考訳(メタデータ) (2023-09-06T08:11:39Z) - Regularizing Adversarial Imitation Learning Using Causal Invariance [8.4336760053489]
シミュレーション学習法は、マルコフ決定プロセスにおけるポリシーを専門家によるデモンストレーションのデータセットから推論するために用いられる。
本稿では,これらのモデルの正則化原理として因果不変性を用いることを提案する。
実測的な2次元設定における正規化定式化の有効性と,多数の高次元ロボット移動ベンチマークタスクの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-17T21:24:34Z) - Prompt Learning for Domain Adaptation in Task-Oriented Dialogue [0.20305676256390934]
標準形式は意図分類の従来の方法に代わる有望な代替手段であることを示す。
標準形式はゼロまたは少数ショット設定で新しい、見えない領域に非常によく一般化することを示す。
論文 参考訳(メタデータ) (2022-11-10T14:16:00Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。