論文の概要: Detecting Political Biases of Named Entities and Hashtags on Twitter
- arxiv url: http://arxiv.org/abs/2209.08110v1
- Date: Fri, 16 Sep 2022 18:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:47:36.686407
- Title: Detecting Political Biases of Named Entities and Hashtags on Twitter
- Title(参考訳): twitter上の名前付きエンティティとハッシュタグの政治的バイアスの検出
- Authors: Zhiping Xiao and Jeffrey Zhu and Yining Wang and Pei Zhou and Wen Hong
Lam and Mason A. Porter and Yizhou Sun
- Abstract要約: 米国のイデオロギー部門は、日々のコミュニケーションにおいてますます顕著になっている。
テキストコーパス内の政治的バイアスを検出することで、そのテキストの極性を記述し、識別しようとすることができる。
極性を考慮したマルチタスク学習モデルを提案する。
- 参考スコア(独自算出の注目度): 28.02430167720734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ideological divisions in the United States have become increasingly prominent
in daily communication. Accordingly, there has been much research on political
polarization, including many recent efforts that take a computational
perspective. By detecting political biases in a corpus of text, one can attempt
to describe and discern the polarity of that text. Intuitively, the named
entities (i.e., the nouns and phrases that act as nouns) and hashtags in text
often carry information about political views. For example, people who use the
term "pro-choice" are likely to be liberal, whereas people who use the term
"pro-life" are likely to be conservative. In this paper, we seek to reveal
political polarities in social-media text data and to quantify these polarities
by explicitly assigning a polarity score to entities and hashtags. Although
this idea is straightforward, it is difficult to perform such inference in a
trustworthy quantitative way. Key challenges include the small number of known
labels, the continuous spectrum of political views, and the preservation of
both a polarity score and a polarity-neutral semantic meaning in an embedding
vector of words. To attempt to overcome these challenges, we propose the
Polarity-aware Embedding Multi-task learning (PEM) model. This model consists
of (1) a self-supervised context-preservation task, (2) an attention-based
tweet-level polarity-inference task, and (3) an adversarial learning task that
promotes independence between an embedding's polarity dimension and its
semantic dimensions. Our experimental results demonstrate that our PEM model
can successfully learn polarity-aware embeddings. We examine a variety of
applications and we thereby demonstrate the effectiveness of our PEM model. We
also discuss important limitations of our work and stress caution when applying
the PEM model to real-world scenarios.
- Abstract(参考訳): 米国のイデオロギー部門は、日々のコミュニケーションにおいてますます顕著になっている。
そのため、近年の計算的観点からの取り組みを含め、政治的偏極に関する多くの研究がなされている。
テキストコーパスの政治的バイアスを検出することで、そのテキストの極性を説明し、識別しようとすることができる。
直感的には、名付けられた実体(名詞や名詞として機能する句)やハッシュタグは、しばしば政治的見解に関する情報を持っている。
例えば、"pro-choice"という言葉を使う人はリベラルな傾向があり、"pro-life"という言葉を使う人は保守的な傾向にある。
本稿では,ソーシャルメディアのテキストデータにおける政治的極性を明らかにし,その極性をエンティティやハッシュタグに明示的に割り当てることで定量化することを目的とする。
この考えは単純であるが、信頼できる定量的な方法でそのような推論を行うことは困難である。
主な課題は、少数の既知のラベル、政治的見解の連続スペクトル、および単語の埋め込みベクトルにおける極性スコアと極性中立の意味の両方の保存である。
これらの課題を克服するために,極性を考慮したマルチタスク学習(PEM)モデルを提案する。
本モデルは,(1)自己監督型文脈保存タスク,(2)注目に基づくつぶやきレベルの極性推論タスク,(3)埋め込みの極性次元と意味的次元との独立性を促進する逆学習タスクから構成される。
実験結果は,pemモデルが極性認識埋め込みをうまく学習できることを実証する。
我々は,様々な応用について検討し,pemモデルの有効性を実証する。
我々はまた,pemモデルを実世界のシナリオに適用する際の作業の重要な制限やストレス警告についても論じる。
関連論文リスト
- Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Dialectograms: Machine Learning Differences between Discursive
Communities [0.0]
単語の埋め込みを利用して、単語の使い方を地図化することで、完全な埋め込み空間の豊かさを活用するための一歩を踏み出した。
そこで本研究では,単語の用法に違いがあり,頻繁な単語や多文語を抽出する既存手法の傾向を克服する新しい尺度を提案する。
論文 参考訳(メタデータ) (2023-02-11T11:32:08Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Millions of Co-purchases and Reviews Reveal the Spread of Polarization
and Lifestyle Politics across Online Markets [68.8204255655161]
多様な市場において,異なる製品セグメントにおける分極とライフスタイル政治の広範性について検討する。
政治的に関連性があり、整列し、偏極化した製品カテゴリーを見つけるために、218万の市場組織間で236万の関連をサンプリングした。
文化製品は他のどの部分よりも4倍偏光度が高い。
論文 参考訳(メタデータ) (2022-01-17T18:16:37Z) - Mundus vult decipi, ergo decipiatur: Visual Communication of Uncertainty
in Election Polls [56.8172499765118]
我々は、今放送と予測におけるバイアスの潜在的な源について論じる。
概念は、誤認識された正確性の問題を軽減するために提示される。
主要なアイデアの1つは、パーティーシェアではなくイベントの確率を使うことである。
論文 参考訳(メタデータ) (2021-04-28T07:02:24Z) - Detecting Polarized Topics in COVID-19 News Using Partisanship-aware
Contextualized Topic Embeddings [3.9761027576939405]
ニュースメディアの分極化の高まりは、熱狂的な意見の相違、論争、さらには暴力までもが非難されている。
パルチザンニュースソースから偏光トピックを自動的に検出する手法であるPartisanship-aware Contextualized Topic Embeddings (PaCTE)を提案する。
論文 参考訳(メタデータ) (2021-04-15T23:05:52Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Political Depolarization of News Articles Using Attribute-aware Word
Embeddings [7.411577497708497]
米国では政治的分極が増加している。
この分極は、イデオロギーエコーチャンバーの生成に寄与することで、公共の球体に悪影響を及ぼす。
ニュース記事を偏極化するためのフレームワークを紹介します。
論文 参考訳(メタデータ) (2021-01-05T07:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。