論文の概要: CommunityLM: Probing Partisan Worldviews from Language Models
- arxiv url: http://arxiv.org/abs/2209.07065v1
- Date: Thu, 15 Sep 2022 05:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:05:14.913831
- Title: CommunityLM: Probing Partisan Worldviews from Language Models
- Title(参考訳): CommunityLM: 言語モデルから党派世界観を探る
- Authors: Hang Jiang, Doug Beeferman, Brandon Roy, Deb Roy
- Abstract要約: コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークを使用している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に、対応するLMのプロンプトベース探索を用いて、2つのグループの世界観を評価する。
- 参考スコア(独自算出の注目度): 11.782896991259001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As political attitudes have diverged ideologically in the United States,
political speech has diverged lingusitically. The ever-widening polarization
between the US political parties is accelerated by an erosion of mutual
understanding between them. We aim to make these communities more
comprehensible to each other with a framework that probes community-specific
responses to the same survey questions using community language models
CommunityLM. In our framework we identify committed partisan members for each
community on Twitter and fine-tune LMs on the tweets authored by them. We then
assess the worldviews of the two groups using prompt-based probing of their
corresponding LMs, with prompts that elicit opinions about public figures and
groups surveyed by the American National Election Studies (ANES) 2020
Exploratory Testing Survey. We compare the responses generated by the LMs to
the ANES survey results, and find a level of alignment that greatly exceeds
several baseline methods. Our work aims to show that we can use community LMs
to query the worldview of any group of people given a sufficiently large sample
of their social media discussions or media diet.
- Abstract(参考訳): アメリカでは政治的態度がイデオロギー的に多様化しているため、政治的発言は言語的に多様化している。
米国の政党間の極楽化は、両者の相互理解の侵食によって加速している。
コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークにより,これらのコミュニティをより理解しやすくすることを目指している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に,米国国家選挙研究会(anes)2020年探索試験調査によって調査された公的人物や団体に対する意見を明らかにするプロンプトを用いて,両グループの世界観を評価する。
lmsが生成した応答を anes 調査結果と比較し,いくつかのベースライン法を大幅に越えたアライメントレベルを見いだした。
本研究の目的は,ソーシャルメディアの議論やメディアダイエットを十分に多用した,あらゆるグループの世界観を問うために,コミュニティLMを利用できることを示すことである。
関連論文リスト
- Whose Emotions and Moral Sentiments Do Language Models Reflect? [5.958974943807783]
言語モデル(LM)は、ある社会集団の視点を他のグループよりも良く表現することが知られている。
両イデオロギー群とLMの相違点が有意である。
特定のイデオロギー的な視点でLMを操った後も、モデルのミスアライメントとリベラルな傾向は持続する。
論文 参考訳(メタデータ) (2024-02-16T22:34:53Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - Reading Between the Tweets: Deciphering Ideological Stances of
Interconnected Mixed-Ideology Communities [5.514795777097036]
我々は、複雑な交流コミュニティを特定するために、2020年の米国大統領選挙に関する議論をTwitter上で調査する。
言語モデル(LM)を微調整する際にメッセージパッシングを利用する新しい手法を導入し,これらのコミュニティのニュアンスドイデオロギーを探索する。
論文 参考訳(メタデータ) (2024-02-02T01:39:00Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Towards Measuring the Representation of Subjective Global Opinions in
Language Models [14.056632134768023]
大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
論文 参考訳(メタデータ) (2023-06-28T17:31:53Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Exploring Polarization of Users Behavior on Twitter During the 2019
South American Protests [15.065938163384235]
われわれは、2019年に南アメリカのいくつかの国を麻痺させた抗議活動について、異なる文脈でTwitter上で偏極を探っている。
政治家のツイートやハッシュタグキャンペーンに対するユーザの支持を(反対かにかかわらず)抗議に対する明確なスタンスで活用することにより、何百万人ものユーザーによる弱いラベル付きスタンスデータセットを構築します。
イベント中の「フィルターバブル」現象の実証的証拠は、ユーザベースがスタンスの観点から均質であるだけでなく、異なるクラスタのメディアからユーザが移行する確率も低いことを示すものである。
論文 参考訳(メタデータ) (2021-04-05T07:13:18Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。