論文の概要: Revisiting Information Cascades in Online Social Networks
- arxiv url: http://arxiv.org/abs/2208.00904v1
- Date: Mon, 1 Aug 2022 14:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 15:03:53.685782
- Title: Revisiting Information Cascades in Online Social Networks
- Title(参考訳): オンラインソーシャルネットワークにおける情報カスケードの再検討
- Authors: Michael Sidorov and Dan Vilenchik
- Abstract要約: 本稿では,ユーザがV$あたり約$vでコンテンツを再共有するかどうかを次の時間帯に予測するタスクについて検討する。
我々は、単純な欲求アルゴリズムから畳み込みニューラルネットワークベースのアルゴリズムまで、このタスクのためにいくつかのアルゴリズムを設計する。
最高のパフォーマンス、平均F1スコアは4つのデータセットに対して0.86であり、畳み込みニューラルネットワークによって達成された。
- 参考スコア(独自算出の注目度): 0.6091702876917281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It's by now folklore that to understand the activity pattern of a user in an
online social network (OSN) platform, one needs to look at his friends or the
ones he follows. The common perception is that these friends exert influence on
the user, effecting his decision whether to re-share content or not. Hinging
upon this intuition, a variety of models were developed to predict how
information propagates in OSN, similar to the way infection spreads in the
population. In this paper, we revisit this world view and arrive at new
conclusions. Given a set of users $V$, we study the task of predicting whether
a user $u \in V$ will re-share content by some $v \in V$ at the following time
window given the activity of all the users in $V$ in the previous time window.
We design several algorithms for this task, ranging from a simple greedy
algorithm that only learns $u$'s conditional probability distribution, ignoring
the rest of $V$, to a convolutional neural network-based algorithm that
receives the activity of all of $V$, but does not receive explicitly the social
link structure. We tested our algorithms on four datasets that we collected
from Twitter, each revolving around a different popular topic in 2020. The best
performance, average F1-score of 0.86 over the four datasets, was achieved by
the convolutional neural network. The simple, social-link ignorant, algorithm
achieved an average F1-score of 0.78.
- Abstract(参考訳): 今では、オンラインソーシャルネットワーク(osn)プラットフォームでユーザーのアクティビティパターンを理解するには、友人やフォローしているユーザーを見る必要があります。
共通の認識は、これらの友人がユーザーに影響を与えることであり、コンテンツを再共有するかどうかの判断に影響を及ぼす。
この直感に基づいて、osnにおける情報の伝播を予測するために様々なモデルが開発された。
本稿では,この世界観を再検討し,新たな結論を得る。
ユーザのセットである$V$を前提として、ユーザが$u \in V$でコンテンツを再共有するかどうかを予測するタスクを、前回のタイムウィンドウですべてのユーザのアクティビティを考慮し、次のタイムウィンドウで、$v \in V$で再共有するかどうかを調査する。
我々は、u$の条件付き確率分布のみを学習する単純な欲求アルゴリズムから、残りの$V$を無視した畳み込みニューラルネットワークベースのアルゴリズムまで、このタスクのためにいくつかのアルゴリズムを設計する。
私たちは、twitterから収集した4つのデータセットでアルゴリズムをテストしました。
最大性能は、畳み込みニューラルネットワークによって達成された4つのデータセットの平均f1-score 0.86である。
単純でソーシャルリンクの無知なアルゴリズムは平均F1スコア0.78を達成した。
関連論文リスト
- User-Level Differential Privacy With Few Examples Per User [73.81862394073308]
サンプルスカース方式では,各ユーザが少数のサンプルしか持たないため,以下の結果が得られる。
近似DPについては,任意の項目レベルDPアルゴリズムをユーザレベルDPアルゴリズムに汎用変換する。
ユーザレベル設定に指数的機構(McSherry, Talwar FOCS 2007)を適用するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-09-21T21:51:55Z) - Training Overparametrized Neural Networks in Sublinear Time [14.918404733024332]
ディープラーニングには膨大な計算とエネルギーのコストが伴う。
探索木の小さな部分集合として、二分ニューラルネットワークの新しいサブセットを示し、それぞれが探索木のサブセット(Ds)に対応する。
我々はこの見解が深層ネットワーク(Ds)の分析解析にさらに応用できると考えている。
論文 参考訳(メタデータ) (2022-08-09T02:29:42Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - User-Level Private Learning via Correlated Sampling [49.453751858361265]
我々は、各ユーザが$m$のサンプルを持ち、プライバシ保護が各ユーザのデータレベルで実施される設定について検討する。
この設定では、より少ない数のユーザーで学習できることが示されます。
論文 参考訳(メタデータ) (2021-10-21T15:33:53Z) - A Neural Network Ensemble Approach to System Identification [0.6445605125467573]
軌道データから未知の制御方程式を学習するための新しいアルゴリズムを提案する。
ニューラルネットワークのアンサンブルを用いて関数の$f$を近似する。
論文 参考訳(メタデータ) (2021-10-15T21:45:48Z) - Maximizing Influence of Leaders in Social Networks [15.05158252504978]
我々は、$n$ノードと$m$エッジを持つソーシャルネットワークにおける意見力学のDeGrootモデルに対するエッジ加算問題を考察する。
提案アルゴリズムは,100万以上のノードを持つ大規模ネットワークに対して,効率的かつ効果的であることを示す。
論文 参考訳(メタデータ) (2021-06-11T02:31:46Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z) - Shuffling Recurrent Neural Networks [97.72614340294547]
隠れ状態 $h_t$ を以前の隠れ状態 $h_t-1$ のベクトル要素を置換することにより、隠れ状態 $h_t$ が得られる新しいリカレントニューラルネットワークモデルを提案する。
私たちのモデルでは、予測は第2の学習関数によって与えられ、隠された状態 $s(h_t)$ に適用されます。
論文 参考訳(メタデータ) (2020-07-14T19:36:10Z) - Contextual Bandits with Side-Observations [10.248045133793287]
ソーシャルネットワークを介して接続されたユーザの推薦アルゴリズムを設計するために,両腕にサイドオブザーブメントが存在する場合のコンテキスト帯について検討する。
既存の学習アルゴリズムの素直な応用は、$Oleft(Nlog Tright)$ regretとなり、そこでは$N$がユーザ数であることを示す。
論文 参考訳(メタデータ) (2020-06-06T19:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。