論文の概要: Reading Between the Tweets: Deciphering Ideological Stances of
Interconnected Mixed-Ideology Communities
- arxiv url: http://arxiv.org/abs/2402.01091v1
- Date: Fri, 2 Feb 2024 01:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:16:34.069635
- Title: Reading Between the Tweets: Deciphering Ideological Stances of
Interconnected Mixed-Ideology Communities
- Title(参考訳): つぶやきの読み方:連結混合イデオロギーコミュニティのイデオロギースタンスを解読する
- Authors: Zihao He, Ashwin Rao, Siyi Guo, Negar Mokhberian, Kristina Lerman
- Abstract要約: 我々は、複雑な交流コミュニティを特定するために、2020年の米国大統領選挙に関する議論をTwitter上で調査する。
言語モデル(LM)を微調整する際にメッセージパッシングを利用する新しい手法を導入し,これらのコミュニティのニュアンスドイデオロギーを探索する。
- 参考スコア(独自算出の注目度): 5.514795777097036
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in NLP have improved our ability to understand the nuanced
worldviews of online communities. Existing research focused on probing
ideological stances treats liberals and conservatives as separate groups.
However, this fails to account for the nuanced views of the organically formed
online communities and the connections between them. In this paper, we study
discussions of the 2020 U.S. election on Twitter to identify complex
interacting communities. Capitalizing on this interconnectedness, we introduce
a novel approach that harnesses message passing when finetuning language models
(LMs) to probe the nuanced ideologies of these communities. By comparing the
responses generated by LMs and real-world survey results, our method shows
higher alignment than existing baselines, highlighting the potential of using
LMs in revealing complex ideologies within and across interconnected
mixed-ideology communities.
- Abstract(参考訳): NLPの最近の進歩により、オンラインコミュニティの微妙な世界観を理解する能力が向上した。
既存の研究は、リベラル派と保守派を別個のグループとして扱うイデオロギー的立場の探究に焦点を当てている。
しかし、これは有機的に形成されたオンラインコミュニティの微妙な見方とそれらの間のつながりを説明できない。
本稿では,2020年アメリカ合衆国大統領選挙のTwitter上での議論から,複雑な交流コミュニティを特定する。
この相互接続性に乗じて,これらのコミュニティのニュアンス的イデオロギーを調査するために,言語モデル(lms)の微調整時のメッセージパッシングを利用する新しい手法を提案する。
実世界調査結果とLMの応答を比較した結果,既存のベースラインよりも高いアライメントを示し,複合イデオロギーコミュニティ内の複雑なイデオロギーを明らかにする上でのLMの利用の可能性を強調した。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - COMMUNITY-CROSS-INSTRUCT: Unsupervised Instruction Generation for Aligning Large Language Models to Online Communities [5.0261645603931475]
コミュニティ・クロス・インストラクション(Community-Cross-Instruct)は,大規模言語モデルをオンラインコミュニティに整合させ,信念を導き出す,教師なしのフレームワークである。
Reddit上で政治・食生活のコミュニティを正確に表現する手法の有用性を実証する。
論文 参考訳(メタデータ) (2024-06-17T20:20:47Z) - Echo-chambers and Idea Labs: Communication Styles on Twitter [51.13560635563004]
本稿では,ワクチン接種状況におけるTwitter(X)コミュニティのコミュニケーション形態と構造について検討する。
本研究は,ソーシャルネットワークにおけるコミュニケーションの微妙な性質に光を当てることによって,オンラインコミュニティにおける視点の多様性を理解することの重要性を強調する。
論文 参考訳(メタデータ) (2024-03-28T13:55:51Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Navigating Multidimensional Ideologies with Reddit's Political Compass:
Economic Conflict and Social Affinity [3.850666668546735]
我々は、多次元イデオロギーの枠組みである政治コンパスのレンズの下で、Reddit上の社会的相互作用を分析する。
彼らの自己宣言を活用することで、ユーザのイデオロギー的な側面を、経済的(右派)と社会的(リバタリアン富裕層-権威主義)の軸に切り離します。
政治的コンパスと人口統計特性の社会的軸に沿った相互作用に対する重要なホモフィリーを見いだす。
対照的に、経済の軸に沿った重要なヘテロフィリ(左と右の相互作用)が、予想を上回っている。
論文 参考訳(メタデータ) (2024-01-24T18:49:19Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Identifying and analysing toxic actors and communities on Facebook by
employing network analysis [10.470891322619549]
ソーシャルメディアプラットフォーム(SMP)は、有害な感情内容やネガティブな感情内容を協調的に広める上で中心的な役割を果たす。
本稿では,グラフ理論のインスピレーションを取り入れた新しいネットワークとコミュニティ探索アルゴリズムを代表的Facebookデータセットに適用する。
インドの極右ヒンドゥートヴァの言説の文脈の中で、アクターの協調ネットワークの5つのコミュニティを見つける。
論文 参考訳(メタデータ) (2023-09-14T11:16:16Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Evidence of Demographic rather than Ideological Segregation in News
Discussion on Reddit [9.875731068651561]
典型的意見形成の文脈において,イデオロギーグループと人口動態グループの間でのホモフィリとヘテロフィリを評価した。
Redditのr/newsコミュニティでは,5年間にわたってユーザインタラクションを分析しています。
論文 参考訳(メタデータ) (2023-02-15T11:37:12Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - CommunityLM: Probing Partisan Worldviews from Language Models [11.782896991259001]
コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークを使用している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に、対応するLMのプロンプトベース探索を用いて、2つのグループの世界観を評価する。
論文 参考訳(メタデータ) (2022-09-15T05:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。