論文の概要: LLMs Can Infer Political Alignment from Online Conversations
- arxiv url: http://arxiv.org/abs/2603.11253v1
- Date: Wed, 11 Mar 2026 19:26:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.612027
- Title: LLMs Can Infer Political Alignment from Online Conversations
- Title(参考訳): LLMはオンライン会話から政治的アライメントを推測できる
- Authors: Byunghwee Lee, Sangyeon Kim, Filippo Menczer, Yong-Yeol Ahn, Haewoon Kwak, Jisun An,
- Abstract要約: Debate.org と Reddit に関するオンラインディスカッションを用いて、大きな言語モデルが確実に隠れた政治的アライメントを推測できることを示す。
我々は、LLMが政治的アライメントを強く予測できる言葉を活用しながら、明確に政治的でないことを実証した。
- 参考スコア(独自算出の注目度): 8.422083744745324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the correlational structure in our traits such as identities, cultures, and political attitudes, seemingly innocuous preferences such as following a band or using a specific slang, can reveal private traits. This possibility, especially when combined with massive, public social data and advanced computational methods, poses a fundamental privacy risk. Given our increasing data exposure online and the rapid advancement of AI are increasing the misuse potential of such risk, it is therefore critical to understand capacity of large language models (LLMs) to exploit it. Here, using online discussions on Debate.org and Reddit, we show that LLMs can reliably infer hidden political alignment, significantly outperforming traditional machine learning models. Prediction accuracy further improves as we aggregate multiple text-level inferences into a user-level prediction, and as we use more politics-adjacent domains. We demonstrate that LLMs leverage the words that can be highly predictive of political alignment while not being explicitly political. Our findings underscore the capacity and risks of LLMs for exploiting socio-cultural correlates.
- Abstract(参考訳): アイデンティティ、文化、政治的態度などの特徴の相関構造のため、バンドのフォローや特定のスラングの使用など、一見無害な嗜好が、個人の特性を明らかにすることができる。
この可能性、特に大規模でパブリックなソーシャルデータと高度な計算手法を組み合わせると、基本的なプライバシーリスクが生じる。
オンラインでのデータ露出が増加し、AIの急速な進歩がそのようなリスクの誤用の可能性を高めていることを考えると、それを活用するための大規模言語モデル(LLM)の能力を理解することが重要である。
ここでは、Debate.orgとRedditのオンラインディスカッションを用いて、LLMが隠れた政治的アライメントを確実に推論できることを示し、従来の機械学習モデルを大幅に上回っている。
予測精度はさらに向上し、複数のテキストレベルの推論をユーザレベルの予測に集約し、より政治的に隣接したドメインを使用するようにします。
我々は、LLMが政治的アライメントを強く予測できる言葉を活用しながら、明確に政治的でないことを実証した。
以上の結果から, LLMの社会的・文化的相関を活用できる可能性, リスクが示唆された。
関連論文リスト
- Beyond the Link: Assessing LLMs' ability to Classify Political Content across Global Media [37.149543017244234]
本稿では,5ヶ国にわたるニュース記事のテキストとURLを用いて,大規模言語モデル(LLM)がPCと非PCを正確に区別できるかどうかを評価する。
最先端モデルを用いて、URLレベルの解析がフルテキスト解析を近似できるかどうかを評価するために、人間の符号化データに対して性能をベンチマークする。
以上の結果から,URLが関連する情報を埋め込んで,PCを識別する代わりに,スケーラブルで費用対効果の高い代替手段として機能することが示唆された。
論文 参考訳(メタデータ) (2025-06-20T18:57:43Z) - Passing the Turing Test in Political Discourse: Fine-Tuning LLMs to Mimic Polarized Social Media Comments [0.0]
本研究では、微調整された大言語モデル(LLM)が、偏光言説を再現し増幅できる範囲について検討する。
Redditから抽出された政治的に課金された議論のキュレートされたデータセットを使用して、オープンソースのLCMを微調整して、コンテキスト認識とイデオロギー的に整合した応答を生成します。
結果は、パルチザンのデータに基づいてトレーニングすると、LLMは高い信頼性と挑発的なコメントを生成でき、しばしば人間によって書かれたものと区別できないことを示唆している。
論文 参考訳(メタデータ) (2025-06-17T15:41:26Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Personalisation within bounds: A risk taxonomy and policy framework for
the alignment of large language models with personalised feedback [11.895749982167375]
大規模言語モデル(LLM)は、幅広いタスクのコンテンツを生成するために使用され、今後数年でより多くの聴衆にリーチするように設定されている。
これにより、モデルが人間の好みと一致し、安全でない、不正確な、有害なアウトプットを発生させないことを保証する必要性が強まる。
マイクロレベルの嗜好学習プロセスを通じてLLMをパーソナライズすると、各ユーザとの整合性が良くなるモデルが得られる。
論文 参考訳(メタデータ) (2023-03-09T17:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。