論文の概要: CommunityLM: Probing Partisan Worldviews from Language Models
- arxiv url: http://arxiv.org/abs/2209.07065v1
- Date: Thu, 15 Sep 2022 05:52:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:05:14.913831
- Title: CommunityLM: Probing Partisan Worldviews from Language Models
- Title(参考訳): CommunityLM: 言語モデルから党派世界観を探る
- Authors: Hang Jiang, Doug Beeferman, Brandon Roy, Deb Roy
- Abstract要約: コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークを使用している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に、対応するLMのプロンプトベース探索を用いて、2つのグループの世界観を評価する。
- 参考スコア(独自算出の注目度): 11.782896991259001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As political attitudes have diverged ideologically in the United States,
political speech has diverged lingusitically. The ever-widening polarization
between the US political parties is accelerated by an erosion of mutual
understanding between them. We aim to make these communities more
comprehensible to each other with a framework that probes community-specific
responses to the same survey questions using community language models
CommunityLM. In our framework we identify committed partisan members for each
community on Twitter and fine-tune LMs on the tweets authored by them. We then
assess the worldviews of the two groups using prompt-based probing of their
corresponding LMs, with prompts that elicit opinions about public figures and
groups surveyed by the American National Election Studies (ANES) 2020
Exploratory Testing Survey. We compare the responses generated by the LMs to
the ANES survey results, and find a level of alignment that greatly exceeds
several baseline methods. Our work aims to show that we can use community LMs
to query the worldview of any group of people given a sufficiently large sample
of their social media discussions or media diet.
- Abstract(参考訳): アメリカでは政治的態度がイデオロギー的に多様化しているため、政治的発言は言語的に多様化している。
米国の政党間の極楽化は、両者の相互理解の侵食によって加速している。
コミュニティ言語モデルであるCommunityLMを用いて,同じ質問に対するコミュニティ固有の回答を探索するフレームワークにより,これらのコミュニティをより理解しやすくすることを目指している。
当社のフレームワークでは、Twitter上の各コミュニティのコミットされたパルチザンメンバーと、彼らによって書かれたツイートに関する微調整LMを識別しています。
次に,米国国家選挙研究会(anes)2020年探索試験調査によって調査された公的人物や団体に対する意見を明らかにするプロンプトを用いて,両グループの世界観を評価する。
lmsが生成した応答を anes 調査結果と比較し,いくつかのベースライン法を大幅に越えたアライメントレベルを見いだした。
本研究の目的は,ソーシャルメディアの議論やメディアダイエットを十分に多用した,あらゆるグループの世界観を問うために,コミュニティLMを利用できることを示すことである。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Can LLMs Help Predict Elections? (Counter)Evidence from the World's Largest Democracy [3.0915192911449796]
ソーシャルメディアが世論の形成にどのように影響し、政治的結果に影響を及ぼすかについての研究は、一般的な調査分野である。
本稿では,Large Language Models (LLMs) の機能を活用し,ソーシャルメディアデータを調べ,選挙結果を予測する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-13T15:13:23Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Whose Emotions and Moral Sentiments Do Language Models Reflect? [5.4547979989237225]
言語モデル(LM)は、ある社会集団の視点を他のグループよりも良く表現することが知られている。
両イデオロギー群とLMの相違点が有意である。
特定のイデオロギー的な視点でLMを操った後も、モデルのミスアライメントとリベラルな傾向は持続する。
論文 参考訳(メタデータ) (2024-02-16T22:34:53Z) - Reading Between the Tweets: Deciphering Ideological Stances of
Interconnected Mixed-Ideology Communities [5.514795777097036]
我々は、複雑な交流コミュニティを特定するために、2020年の米国大統領選挙に関する議論をTwitter上で調査する。
言語モデル(LM)を微調整する際にメッセージパッシングを利用する新しい手法を導入し,これらのコミュニティのニュアンスドイデオロギーを探索する。
論文 参考訳(メタデータ) (2024-02-02T01:39:00Z) - Towards Measuring the Representation of Subjective Global Opinions in Language Models [26.999751306332165]
大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
論文 参考訳(メタデータ) (2023-06-28T17:31:53Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。