論文の概要: Detecting Political Biases of Named Entities and Hashtags on Twitter
- arxiv url: http://arxiv.org/abs/2209.08110v1
- Date: Fri, 16 Sep 2022 18:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:47:36.686407
- Title: Detecting Political Biases of Named Entities and Hashtags on Twitter
- Title(参考訳): twitter上の名前付きエンティティとハッシュタグの政治的バイアスの検出
- Authors: Zhiping Xiao and Jeffrey Zhu and Yining Wang and Pei Zhou and Wen Hong
Lam and Mason A. Porter and Yizhou Sun
- Abstract要約: 米国のイデオロギー部門は、日々のコミュニケーションにおいてますます顕著になっている。
テキストコーパス内の政治的バイアスを検出することで、そのテキストの極性を記述し、識別しようとすることができる。
極性を考慮したマルチタスク学習モデルを提案する。
- 参考スコア(独自算出の注目度): 28.02430167720734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ideological divisions in the United States have become increasingly prominent
in daily communication. Accordingly, there has been much research on political
polarization, including many recent efforts that take a computational
perspective. By detecting political biases in a corpus of text, one can attempt
to describe and discern the polarity of that text. Intuitively, the named
entities (i.e., the nouns and phrases that act as nouns) and hashtags in text
often carry information about political views. For example, people who use the
term "pro-choice" are likely to be liberal, whereas people who use the term
"pro-life" are likely to be conservative. In this paper, we seek to reveal
political polarities in social-media text data and to quantify these polarities
by explicitly assigning a polarity score to entities and hashtags. Although
this idea is straightforward, it is difficult to perform such inference in a
trustworthy quantitative way. Key challenges include the small number of known
labels, the continuous spectrum of political views, and the preservation of
both a polarity score and a polarity-neutral semantic meaning in an embedding
vector of words. To attempt to overcome these challenges, we propose the
Polarity-aware Embedding Multi-task learning (PEM) model. This model consists
of (1) a self-supervised context-preservation task, (2) an attention-based
tweet-level polarity-inference task, and (3) an adversarial learning task that
promotes independence between an embedding's polarity dimension and its
semantic dimensions. Our experimental results demonstrate that our PEM model
can successfully learn polarity-aware embeddings. We examine a variety of
applications and we thereby demonstrate the effectiveness of our PEM model. We
also discuss important limitations of our work and stress caution when applying
the PEM model to real-world scenarios.
- Abstract(参考訳): 米国のイデオロギー部門は、日々のコミュニケーションにおいてますます顕著になっている。
そのため、近年の計算的観点からの取り組みを含め、政治的偏極に関する多くの研究がなされている。
テキストコーパスの政治的バイアスを検出することで、そのテキストの極性を説明し、識別しようとすることができる。
直感的には、名付けられた実体(名詞や名詞として機能する句)やハッシュタグは、しばしば政治的見解に関する情報を持っている。
例えば、"pro-choice"という言葉を使う人はリベラルな傾向があり、"pro-life"という言葉を使う人は保守的な傾向にある。
本稿では,ソーシャルメディアのテキストデータにおける政治的極性を明らかにし,その極性をエンティティやハッシュタグに明示的に割り当てることで定量化することを目的とする。
この考えは単純であるが、信頼できる定量的な方法でそのような推論を行うことは困難である。
主な課題は、少数の既知のラベル、政治的見解の連続スペクトル、および単語の埋め込みベクトルにおける極性スコアと極性中立の意味の両方の保存である。
これらの課題を克服するために,極性を考慮したマルチタスク学習(PEM)モデルを提案する。
本モデルは,(1)自己監督型文脈保存タスク,(2)注目に基づくつぶやきレベルの極性推論タスク,(3)埋め込みの極性次元と意味的次元との独立性を促進する逆学習タスクから構成される。
実験結果は,pemモデルが極性認識埋め込みをうまく学習できることを実証する。
我々は,様々な応用について検討し,pemモデルの有効性を実証する。
我々はまた,pemモデルを実世界のシナリオに適用する際の作業の重要な制限やストレス警告についても論じる。
関連論文リスト
- What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Dialectograms: Machine Learning Differences between Discursive
Communities [0.0]
単語の埋め込みを利用して、単語の使い方を地図化することで、完全な埋め込み空間の豊かさを活用するための一歩を踏み出した。
そこで本研究では,単語の用法に違いがあり,頻繁な単語や多文語を抽出する既存手法の傾向を克服する新しい尺度を提案する。
論文 参考訳(メタデータ) (2023-02-11T11:32:08Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Millions of Co-purchases and Reviews Reveal the Spread of Polarization
and Lifestyle Politics across Online Markets [68.8204255655161]
多様な市場において,異なる製品セグメントにおける分極とライフスタイル政治の広範性について検討する。
政治的に関連性があり、整列し、偏極化した製品カテゴリーを見つけるために、218万の市場組織間で236万の関連をサンプリングした。
文化製品は他のどの部分よりも4倍偏光度が高い。
論文 参考訳(メタデータ) (2022-01-17T18:16:37Z) - Mundus vult decipi, ergo decipiatur: Visual Communication of Uncertainty
in Election Polls [56.8172499765118]
我々は、今放送と予測におけるバイアスの潜在的な源について論じる。
概念は、誤認識された正確性の問題を軽減するために提示される。
主要なアイデアの1つは、パーティーシェアではなくイベントの確率を使うことである。
論文 参考訳(メタデータ) (2021-04-28T07:02:24Z) - Detecting Polarized Topics in COVID-19 News Using Partisanship-aware
Contextualized Topic Embeddings [3.9761027576939405]
ニュースメディアの分極化の高まりは、熱狂的な意見の相違、論争、さらには暴力までもが非難されている。
パルチザンニュースソースから偏光トピックを自動的に検出する手法であるPartisanship-aware Contextualized Topic Embeddings (PaCTE)を提案する。
論文 参考訳(メタデータ) (2021-04-15T23:05:52Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Political Depolarization of News Articles Using Attribute-aware Word
Embeddings [7.411577497708497]
米国では政治的分極が増加している。
この分極は、イデオロギーエコーチャンバーの生成に寄与することで、公共の球体に悪影響を及ぼす。
ニュース記事を偏極化するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2021-01-05T07:39:12Z) - Political Posters Identification with Appearance-Text Fusion [49.55696202606098]
外観特徴とテキストベクトルを効率的に活用し, 政治ポスターを高精度に分類する手法を提案する。
この作品の大半は、特定の政治イベントのプロモーションとして機能するように設計された政治ポスターに焦点を当てている。
論文 参考訳(メタデータ) (2020-12-19T16:14:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。