論文の概要: You are what you browse: A robust framework for uncovering political
ideology
- arxiv url: http://arxiv.org/abs/2208.04097v1
- Date: Mon, 8 Aug 2022 12:31:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:23:15.145081
- Title: You are what you browse: A robust framework for uncovering political
ideology
- Title(参考訳): あなたが見るもの:政治的イデオロギーを明らかにするための堅牢なフレームワーク
- Authors: Rohit Ram and Marian-Andrei Rizoiu
- Abstract要約: 本稿では,メディアユーザのシェアのスラントに基づくドメインに依存しない根拠的真実を含む,エンドツーエンドの政治イデオロギーパイプラインを提案する。
従来の左イデオロギー検出と極右ユーザ検出の両方にパイプラインを適用した。
- 参考スコア(独自算出の注目度): 9.556358888163983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The political opinion landscape, in a democratic country, lays the foundation
for the policies that are enacted, and the political actions of individuals. As
such, a reliable measure of ideology is an important first step in a river of
downstream problems, such as; understanding polarization, opinion dynamics
modeling, and detecting and intervening in disinformation campaigns. However,
ideology detection is an inherently difficult task, and researchers encounter
two main hindrances when approaching an ideology pipeline. Firstly, the ground
truth that forms the basis for ideology detection is often labor-intensive to
collect and becomes irrelevant with time. Furthermore, these sources are often
biased and not robust between domains. Secondly, it is not clear through what
lens to view users to infer their ideology, given a small set of users where
this ideology is known. In this work, we present an end-to-end political
ideology pipeline, which includes; a domain-independent ground truth based on
the slant of media users' share, a socially-informed lense allowing performant
ideology inference, and an appropriate classifier methodology. We apply the
pipeline to both the conventional use case of left-right ideology detection,
and the detection of far-right users (who are often of more concern). The
ideology detection pipeline can be applied directly to investigate communities
of interest, and sets a strong footing for a plethora of downstream tasks.
- Abstract(参考訳): 民主主義国家における政治世論の展望は、制定された政策と個人の政治的行動の基礎を成している。
このように、信頼できるイデオロギーの尺度は、偏波の理解、意見のダイナミクスのモデリング、偽情報キャンペーンにおける検出と介入といった下流問題の川における重要な第一歩である。
しかし、イデオロギー検出は本質的に難しい課題であり、イデオロギーパイプラインに近づくと2つの主な障害に遭遇する。
第一に、イデオロギー検出の基礎となる基礎的真実は、しばしば労働集約的であり、時間と無関係になる。
さらに、これらのソースは、しばしばバイアスを受け、ドメイン間で堅牢ではない。
第二に、このイデオロギーが知られている少数のユーザーから見て、ユーザーがイデオロギーを推測するためにどのレンズを見るかは明らかではない。
本研究では,メディアユーザの共有のスラントに基づくドメインに依存しない根拠真理,パフォーマンスイデオロギー推論を可能にする社会的インフォームドレンズ,そして適切な分類方法を含む,エンドツーエンドの政治イデオロギーパイプラインを提案する。
左イデオロギー検出の従来の使用例と,極右ユーザ(特に懸念されることが多い)の検出の両方にパイプラインを適用した。
イデオロギー検出パイプラインは、関心のあるコミュニティを調査するために直接適用することができ、下流のタスクに強力な足場を設定することができる。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Down the Rabbit Hole: Detecting Online Extremism, Radicalisation, and
Politicised Hate Speech [1.0323063834827415]
本研究は,過激な内容を検出するためのテキスト・ネットワーク・ビジュアル・アプローチを初めて横断的に検討する。
我々は、コンセンサス駆動ERHの定義を特定し、特にオセアニア/オーストラリアにおける研究の欠如による解決策を提案する。
我々は、ERH鉱業研究者にとって重要な勧告と、より安全なサイバースペースを実現するための研究者、産業、政府のためのガイドラインによるロードマップの提案を締めくくる。
論文 参考訳(メタデータ) (2023-01-27T07:59:31Z) - Examining Political Rhetoric with Epistemic Stance Detection [13.829628375546568]
我々は、より複雑な最先端のモデリングよりも優れたマルチソース姿勢予測のためのシンプルなRoBERTaベースのモデルを開発した。
我々は、米国の政治意見書のマスマーケットマニフェストコーパスを大規模に分析することで、その新しい政治科学への応用を実証する。
論文 参考訳(メタデータ) (2022-12-29T23:47:14Z) - Self-supervised Hypergraph Representation Learning for Sociological
Analysis [52.514283292498405]
本稿では,データマイニング技術と社会学的行動基準のさらなる融合を支援するための基本的な方法論を提案する。
まず,効率的なハイパーグラフ認識と高速グラフ構築フレームワークを提案する。
第2に,ユーザからユーザへのソーシャルインフルエンスを学習するためのハイパーグラフベースニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-22T01:20:29Z) - Unsupervised Detection of Contextualized Embedding Bias with Application
to Ideology [20.81930455526026]
本研究では,コンテキスト適応型埋め込みにおけるバイアスを検出するための教師なし手法を提案する。
本手法をオンラインディスカッションフォーラムに適用し,提案手法を提案する。
我々の実験は、イデオロギーのサブスペースが抽象的な評価意味論を符号化し、ドナルド・トランプの大統領在任中に政治的左翼スペクトルの変化を反映していることを示唆している。
論文 参考訳(メタデータ) (2022-12-14T23:31:14Z) - PAR: Political Actor Representation Learning with Social Context and
Expert Knowledge [45.215862050840116]
我々は,textbfPolitical textbfActor textbfRepresentation学習フレームワークであるtextbfPARを提案する。
我々は,社会的文脈情報を活用するために,議員に関する事実文を検索し,抽出する。
次に、社会的文脈を取り入れた異種情報ネットワークを構築し、リレーショナルグラフニューラルネットワークを用いて立法者表現を学習する。
論文 参考訳(メタデータ) (2022-10-15T19:28:06Z) - O-Dang! The Ontology of Dangerous Speech Messages [53.15616413153125]
O-Dang!:The Ontology of Dangerous Speech Messages, a systematic and interoperable Knowledge Graph (KG)
O-Dang!は、Lingguistic Linked Open Dataコミュニティで共有されている原則に従って、イタリアのデータセットを構造化されたKGにまとめ、整理するように設計されている。
ゴールド・スタンダードとシングル・アノテータのラベルをKGにエンコードするモデルを提供する。
論文 参考訳(メタデータ) (2022-07-13T11:50:05Z) - Encoding Heterogeneous Social and Political Context for Entity Stance
Prediction [7.477393857078695]
本稿では,エンティティスタンス予測の新しい課題を提案する。
我々は、現代アメリカの政治に関する社会団体に関する事実をウィキペディアから回収する。
そして、我々は、ドメインの専門家の助けを借りて、政治イデオロギーに対する社会団体のスタンスに注釈を付ける。
論文 参考訳(メタデータ) (2021-08-09T08:59:43Z) - Political Ideology and Polarization of Policy Positions: A
Multi-dimensional Approach [19.435030285532854]
我々は,政策のイデオロギーを,姿勢とイデオロギーの曖昧な共存を区別して検討する。
政治学の理論的な記述と相まって、イデオロギーを多次元的構成として扱う。
この枠組みは, 時間的・多面的なイデオロギー距離の測定値である分極の定量的解析を可能にすることを示す。
論文 参考訳(メタデータ) (2021-06-28T04:03:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。