論文の概要: Online Influence Maximization under Decreasing Cascade Model
- arxiv url: http://arxiv.org/abs/2305.15428v1
- Date: Fri, 19 May 2023 07:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 04:30:17.544092
- Title: Online Influence Maximization under Decreasing Cascade Model
- Title(参考訳): 減少カスケードモデルによるオンライン影響最大化
- Authors: Fang Kong, Jize Xie, Baoxiang Wang, Tao Yao, Shuai Li
- Abstract要約: カスケード減少モデル(DC)に基づくオンラインインフルエンス(OIM)について検討する。
DCでは、影響の試行が成功する確率は、以前の失敗で減少する。
提案手法は, ICモデル上での最先端の作業と同じ順序で, 遺残境界を達成できるDC-UCBアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.536030474361723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study online influence maximization (OIM) under a new model of decreasing
cascade (DC). This model is a generalization of the independent cascade (IC)
model by considering the common phenomenon of market saturation. In DC, the
chance of an influence attempt being successful reduces with previous failures.
The effect is neglected by previous OIM works under IC and linear threshold
models. We propose the DC-UCB algorithm to solve this problem, which achieves a
regret bound of the same order as the state-of-the-art works on the IC model.
Extensive experiments on both synthetic and real datasets show the
effectiveness of our algorithm.
- Abstract(参考訳): カスケード減少モデル(DC)に基づくオンライン影響最大化(OIM)について検討した。
このモデルは、市場飽和の共通現象を考慮した独立カスケードモデル(IC)の一般化である。
DCでは、影響の試行が成功する確率は、以前の失敗で減少する。
この効果は、ICおよび線形しきい値モデルの下での以前のOIM作業によって無視される。
そこで本研究では,この問題を解決するためにdc-ucbアルゴリズムを提案する。
合成データと実データの両方について広範な実験を行い,アルゴリズムの有効性を示した。
関連論文リスト
- Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Any-step Dynamics Model Improves Future Predictions for Online and Offline Reinforcement Learning [11.679095516650593]
本稿では,ブートストラップ予測を直接予測に還元することにより,合成誤差を軽減するAny-step Dynamics Model (ADM)を提案する。
ADMは、頻繁なブートストラップなしで将来の状態を予測するための入力として可変長プランを使用することができる。
ADMPO-ONとADMPO-OFFの2つのアルゴリズムを設計し、オンラインおよびオフラインのモデルベースフレームワークにADMを適用する。
論文 参考訳(メタデータ) (2024-05-27T10:33:53Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Model-based Causal Bayesian Optimization [74.78486244786083]
乗算重み付き因果ベイズ最適化のための最初のアルゴリズム(CBO-MW)を提案する。
グラフ関連の量に自然に依存するCBO-MWに対する後悔の限界を導出する。
我々の実験は、共有モビリティシステムにおいて、ユーザの需要パターンを学習するためにCBO-MWをどのように使用できるかの現実的なデモを含む。
論文 参考訳(メタデータ) (2023-07-31T13:02:36Z) - Jointly Complementary&Competitive Influence Maximization with Concurrent Ally-Boosting and Rival-Preventing [12.270411279495097]
C$2$ICモデルは、相補的および競合的な影響が多エージェント環境下で包括的に広がると考えている。
NP-hardの問題を示し、影響促進問題と影響遮断問題を一般化することができる。
そこで本研究では,実ソーシャルネットワーク上で広範囲に実験を行い,提案アルゴリズムの有効性を実証した。
論文 参考訳(メタデータ) (2023-02-19T16:41:53Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Principled Pruning of Bayesian Neural Networks through Variational Free
Energy Minimization [2.3999111269325266]
ベイジアンニューラルネットワークの原理的プルーニングを行うためにベイジアンモデルレダクションを定式化し,適用する。
ベイズモデル削減に伴う問題を緩和するために, 新たな反復刈り込みアルゴリズムを提案する。
本実験は,最先端の刈り取り方式と比較して,優れたモデル性能を示す。
論文 参考訳(メタデータ) (2022-10-17T14:34:42Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Counterfactual fairness: removing direct effects through regularization [0.0]
制御ダイレクトエフェクト(CDE)による因果関係を考慮したフェアネスの新たな定義を提案する。
我々は古典的公正度対策に取り組むための正規化を開発し、新しい公正度定義を満たす因果正則化を示す。
その結果,モデル性能を低下させることなく,予測から不公平さを軽減できることが判明した。
論文 参考訳(メタデータ) (2020-02-25T10:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。