論文の概要: Evolving linguistic divergence on polarizing social media
- arxiv url: http://arxiv.org/abs/2309.01659v1
- Date: Mon, 4 Sep 2023 15:21:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:14:22.847712
- Title: Evolving linguistic divergence on polarizing social media
- Title(参考訳): 分極化ソーシャルメディアにおける進化する言語的多様性
- Authors: Andres Karjus, Christine Cuskley
- Abstract要約: 会話や単語の頻度、メッセージの感情、単語や絵文字の語彙的意味論といったトピックのばらつきを定量化する。
アメリカの英語は、大きな言語コミュニティの中ではほとんど理解できないが、私たちの発見は、コミュニケーションの誤りが生じる可能性のある領域を指し示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language change is influenced by many factors, but often starts from
synchronic variation, where multiple linguistic patterns or forms coexist, or
where different speech communities use language in increasingly different ways.
Besides regional or economic reasons, communities may form and segregate based
on political alignment. The latter, referred to as political polarization, is
of growing societal concern across the world. Here we map and quantify
linguistic divergence across the partisan left-right divide in the United
States, using social media data. We develop a general methodology to delineate
(social) media users by their political preference, based on which (potentially
biased) news media accounts they do and do not follow on a given platform. Our
data consists of 1.5M short posts by 10k users (about 20M words) from the
social media platform Twitter (now "X"). Delineating this sample involved
mining the platform for the lists of followers (n=422M) of 72 large news media
accounts. We quantify divergence in topics of conversation and word
frequencies, messaging sentiment, and lexical semantics of words and emoji. We
find signs of linguistic divergence across all these aspects, especially in
topics and themes of conversation, in line with previous research. While US
American English remains largely intelligible within its large speech
community, our findings point at areas where miscommunication may eventually
arise given ongoing polarization and therefore potential linguistic divergence.
Our methodology - combining data mining, lexicostatistics, machine learning,
large language models and a systematic human annotation approach - is largely
language and platform agnostic. In other words, while we focus here on US
political divides and US English, the same approach is applicable to other
countries, languages, and social media platforms.
- Abstract(参考訳): 言語の変化は多くの要因に影響されているが、複数の言語パターンや形態が共存する、あるいは異なる言語コミュニティが言語を徐々に異なる方法で使用する、同期的変化から始まることが多い。
地域や経済的な理由の他に、地域社会は政治的アライメントに基づいて分離し、分離することができる。
後者は政治的分極と呼ばれ、世界中で社会的な関心が高まっている。
ここでは、ソーシャルメディアデータを用いて、アメリカにおけるパルチザン左派間の言語的差異を地図化し、定量化する。
我々は、特定のプラットフォームに従わない(潜在的に偏りのある)ニュースメディアアカウントに基づいて、(ソーシャルな)メディアユーザをその政治的嗜好によって定義する一般的な方法を開発した。
われわれのデータは、ソーシャルメディアプラットフォームTwitter(現在は「X」)から10万のユーザー(約2000万語)による150万の短い投稿で構成されている。
このサンプルの説明には、72の大ニュースメディアアカウントのフォロワーリスト(n=422M)のマイニングが含まれる。
会話や単語の頻度、メッセージの感情、単語や絵文字の語彙的意味論といったトピックのばらつきを定量化する。
これらすべての側面、特に会話のトピックやテーマにおいて、言語的な相違の兆候が過去の研究と一致している。
アメリカ英語はいまだにその大きな言語コミュニティの中でほとんど理解可能であるが、我々の発見は、継続する分極と潜在的な言語的相違によって、最終的に誤コミュニケーションが発生する可能性がある領域を指摘している。
データマイニング、語彙統計学、機械学習、大規模言語モデル、体系的な人間のアノテーションアプローチを組み合わせた方法論は、主に言語とプラットフォームに依存しない。
言い換えれば、ここではアメリカの政治的分断と米国英語に焦点を当てているが、同じアプローチは他の国、言語、ソーシャルメディアプラットフォームにも適用できる。
関連論文リスト
- Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Moral consensus and divergence in partisan language use [0.0]
政治的議論では分極化が著しく増加し、党派分裂の拡大に寄与した。
我々はRedditコミュニティやニュースメディアで大規模で現実的な言語の使用を分析し、パルチザン言語を分割した心理的次元を明らかにする。
論文 参考訳(メタデータ) (2023-10-14T16:50:26Z) - Simulating Social Media Using Large Language Models to Evaluate
Alternative News Feed Algorithms [8.602553195689513]
ソーシャルメディアはしばしば、有害な会話を増幅し、建設的な会話を妨げていると批判されている。
本稿では、ソーシャルメディアのシミュレーションが、異なるニュースフィードアルゴリズムがオンライン会話の質をいかに形成するかを研究するのに役立つかどうかを問う。
論文 参考訳(メタデータ) (2023-10-05T18:26:06Z) - Computational Assessment of Hyperpartisanship in News Titles [69.3939291118954]
我々は,2200個の手動ラベル付き,1.8万個の機械ラベル付きタイトルを用いた超党派ニュースタイトル検出のための新しいデータセットを開発した。
我々は、ニュースタイトルにおけるパルチザンの程度と動態を定量化するために、計算分析を行う。
全体的に右派メディアは比例して超党派的なタイトルを使う傾向にある。
論文 参考訳(メタデータ) (2023-01-16T05:56:58Z) - Language statistics at different spatial, temporal, and grammatical
scales [48.7576911714538]
Twitterのデータを使って、さまざまなスケールでランクの多様性を探求しています。
最も大きな変化は、文法的なスケールのバリエーションによる。
文法スケールが大きくなるにつれて、ランクの多様性曲線は時間スケールや空間スケールによって大きく変化する。
論文 参考訳(メタデータ) (2022-07-02T01:38:48Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Discovering and Categorising Language Biases in Reddit [5.670038395203354]
本稿では,Reddit上のオンライン談話コミュニティの語彙に符号化された言語バイアスを自動的に検出するデータ駆動型手法を提案する。
単語埋め込みを用いて、テキストを高次元の高密度ベクトルに変換し、単語間の意味的関係をキャプチャする。
さまざまなRedditコミュニティにおいて、ジェンダーバイアス、宗教バイアス、民族バイアスの発見に成功しました。
論文 参考訳(メタデータ) (2020-08-06T16:42:10Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。