論文の概要: Learning Ideological Embeddings from Information Cascades
- arxiv url: http://arxiv.org/abs/2109.13589v1
- Date: Tue, 28 Sep 2021 09:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:31:57.652907
- Title: Learning Ideological Embeddings from Information Cascades
- Title(参考訳): 情報カスケードからイデオロギー埋め込みを学ぶ
- Authors: Corrado Monti, Giuseppe Manco, Cigdem Aslay, Francesco Bonchi
- Abstract要約: 多次元イデオロギー空間における各ユーザのイデオロギー的傾きを学習するためのモデルを提案する。
本モデルは,多次元イデオロギー空間におけるソーシャルメディア利用者の政治的姿勢を学習することができる。
- 参考スコア(独自算出の注目度): 11.898833102736255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling information cascades in a social network through the lenses of the
ideological leaning of its users can help understanding phenomena such as
misinformation propagation and confirmation bias, and devising techniques for
mitigating their toxic effects.
In this paper we propose a stochastic model to learn the ideological leaning
of each user in a multidimensional ideological space, by analyzing the way
politically salient content propagates. In particular, our model assumes that
information propagates from one user to another if both users are interested in
the topic and ideologically aligned with each other. To infer the parameters of
our model, we devise a gradient-based optimization procedure maximizing the
likelihood of an observed set of information cascades. Our experiments on
real-world political discussions on Twitter and Reddit confirm that our model
is able to learn the political stance of the social media users in a
multidimensional ideological space.
- Abstract(参考訳): ユーザのイデオロギー的傾きのレンズを通して,ソーシャルネットワーク内の情報カスケードをモデル化することで,誤情報伝播や確認バイアスなどの現象の理解を支援し,有害な影響を緩和する技術を開発することができる。
本稿では,多次元イデオロギー空間における各ユーザのイデオロギー的傾きを学習するための確率的モデルを提案する。
特に,両ユーザがトピックに興味を持ち,イデオロギー的に相互に一致している場合,情報をあるユーザから別のユーザへと伝播させると仮定する。
モデルのパラメータを推定するために,観測された情報カスケードの集合の確率を最大化する勾配に基づく最適化手法を提案する。
TwitterとRedditの実際の政治的議論に関する実験では、このモデルが多次元イデオロギー空間におけるソーシャルメディアユーザーの政治的スタンスを学習できることを確認した。
関連論文リスト
- Balancing Transparency and Accuracy: A Comparative Analysis of Rule-Based and Deep Learning Models in Political Bias Classification [5.550237524713089]
この研究は、制約のないデータ摂取に対する現代の自己学習システムの感受性を強調している。
両モデルを左利き(CNN)と右利き(FOX)のニュース記事に適用し、元のトレーニングやテストセットを超えたデータ上での有効性を評価する。
深層学習モデルの不透明なアーキテクチャと言語情報に基づくルールベースモデルの透明性を対比する。
論文 参考訳(メタデータ) (2024-11-07T00:09:18Z) - Political Leaning Inference through Plurinational Scenarios [4.899818550820576]
この研究は、スペインにおける3つの多様な地域(バスク州、カタルーニャ州、ガリシア州)に焦点を当て、多党の分類の様々な方法を探究する。
我々は、リツイートから得られた教師なしユーザ表現と、その後の政治的傾き検出に使用される2段階の手法を用いる。
論文 参考訳(メタデータ) (2024-06-12T07:42:12Z) - Generative Active Learning for Image Synthesis Personalization [57.01364199734464]
本稿では,伝統的に識別モデルを用いて研究されてきた能動的学習の生成モデルへの応用について検討する。
生成モデル上でアクティブな学習を行う上での最大の課題は、クエリのオープンな性質にある。
問合せ処理を半開問題に変換するために,アンカー方向の概念を導入する。
論文 参考訳(メタデータ) (2024-03-22T06:45:45Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - InfoPattern: Unveiling Information Propagation Patterns in Social Media [59.67008841974645]
InfoPatternは、言語と人間のイデオロギーの相互作用に焦点を当てている。
1) 反対のイデオロギーコミュニティからの反対反応をシミュレートするレッドチーム,(2) メッセージ中の政治的感情を識別するスタンス検出,(3) 情報伝播グラフの発見により,様々なコミュニティにおけるクレームの進化が時間とともに明らかにされる。
論文 参考訳(メタデータ) (2023-11-27T09:12:35Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Unsupervised Detection of Contextualized Embedding Bias with Application
to Ideology [20.81930455526026]
本研究では,コンテキスト適応型埋め込みにおけるバイアスを検出するための教師なし手法を提案する。
本手法をオンラインディスカッションフォーラムに適用し,提案手法を提案する。
我々の実験は、イデオロギーのサブスペースが抽象的な評価意味論を符号化し、ドナルド・トランプの大統領在任中に政治的左翼スペクトルの変化を反映していることを示唆している。
論文 参考訳(メタデータ) (2022-12-14T23:31:14Z) - Fine-Grained Prediction of Political Leaning on Social Media with
Unsupervised Deep Learning [0.9137554315375922]
ソーシャルメディア投稿からきめ細かい政治傾向を学習するための新しい教師なし手法を提案する。
本研究は、よりきめ細かな政治的傾きを検出するための、新しい、より優れた教師なしのアプローチを開発するための道を開くものである。
論文 参考訳(メタデータ) (2022-02-23T09:18:13Z) - Unsupervised Belief Representation Learning in Polarized Networks with
Information-Theoretic Variational Graph Auto-Encoders [26.640917190618612]
偏極ネットワークにおける信念表現学習のための教師なしアルゴリズムを開発した。
ユーザとコンテンツアイテム(例えば、ユーザビューを表す投稿)の両方を、適切に区切られた潜在空間に投影することを学ぶ。
ユーザとコンテンツの潜在表現は、イデオロギー的傾きを定量化し、問題に対する姿勢を検出し、予測するために使用することができる。
論文 参考訳(メタデータ) (2021-10-01T04:35:01Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。