論文の概要: Language, Culture, and Ideology: Personalizing Offensiveness Detection in Political Tweets with Reasoning LLMs
- arxiv url: http://arxiv.org/abs/2510.02351v1
- Date: Sat, 27 Sep 2025 15:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.029191
- Title: Language, Culture, and Ideology: Personalizing Offensiveness Detection in Political Tweets with Reasoning LLMs
- Title(参考訳): 言語・文化・イデオロギー:LLMを推論した政治ツイートにおける攻撃性検出のパーソナライズ
- Authors: Dzmitry Pihulski, Jan Kocoń,
- Abstract要約: 本研究では,大規模言語モデルによる政治的言論の攻撃性評価について,特定の政治的・文化的視点を取り入れるよう促された場合について考察する。
2020年アメリカ合衆国大統領選挙のツイートを中心にMD-Agreementデータセットの多言語サブセットを用いて,近年のLLMを評価した。
以上の結果から,明示的な推論能力を持つ大規模モデルは,イデオロギーや文化の変化に対してより一貫性があり,敏感であることが示唆された。
- 参考スコア(独自算出の注目度): 0.3437656066916039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore how large language models (LLMs) assess offensiveness in political discourse when prompted to adopt specific political and cultural perspectives. Using a multilingual subset of the MD-Agreement dataset centered on tweets from the 2020 US elections, we evaluate several recent LLMs - including DeepSeek-R1, o4-mini, GPT-4.1-mini, Qwen3, Gemma, and Mistral - tasked with judging tweets as offensive or non-offensive from the viewpoints of varied political personas (far-right, conservative, centrist, progressive) across English, Polish, and Russian contexts. Our results show that larger models with explicit reasoning abilities (e.g., DeepSeek-R1, o4-mini) are more consistent and sensitive to ideological and cultural variation, while smaller models often fail to capture subtle distinctions. We find that reasoning capabilities significantly improve both the personalization and interpretability of offensiveness judgments, suggesting that such mechanisms are key to adapting LLMs for nuanced sociopolitical text classification across languages and ideologies.
- Abstract(参考訳): 政治・文化的な観点から、大規模言語モデル(LLM)が政治的言論における攻撃性を評価する方法について検討する。
2020年アメリカ合衆国大統領選挙のツイートを中心にしたMD-Agreementデータセットの多言語サブセットを用いて、英語、ポーランド語、ロシア語の文脈におけるさまざまな政治的ペルソナ(極右、保守的、中心主義、進歩的)の観点から、ツイートを攻撃的または非攻撃的であるとして判断する、DeepSeek-R1、o4-mini、GPT-4.1-mini、Qwen3、Gemma、Mistralを含む最近のLCMを評価した。
以上の結果から,明確な推論能力を持つ大規模モデル(DeepSeek-R1, o4-miniなど)は,イデオロギーや文化の変化に対してより一貫性があり,より敏感であることがわかった。
解析能力は、攻撃性判断のパーソナライズと解釈可能性の両方を著しく向上させ、言語やイデオロギーにまたがる社会政治学的テキスト分類にLLMを適用する上で、そのようなメカニズムが重要であることを示唆している。
関連論文リスト
- Political Ideology Shifts in Large Language Models [6.062377561249039]
大規模言語モデル(LLM)における合成ペルソナの導入がイデオロギー表現に与える影響について検討する。
分析の結果, より大型のモデルでは, より広範かつ暗黙的なイデオロギー的カバレッジが示され, (ii) 明示的なイデオロギー的手がかりへの感受性は, 規模に応じて増大し, (iii) モデルでは左リバタリアン的プライミングよりも右権威主義に強く反応し, (iv) ペルソナ記述における主題的内容はイデオロギー的変化を誘発し, サイズを増幅することがわかった。
論文 参考訳(メタデータ) (2025-08-22T00:16:38Z) - Do Political Opinions Transfer Between Western Languages? An Analysis of Unaligned and Aligned Multilingual LLMs [8.34389139211844]
政治的意見の異文化間差異は多言語大言語モデル(MLLM)の異言語間差異につながる可能性がある
欧米の5言語にまたがる様々な大きさのMLLMにおいて、意見が言語間で伝達されるか、それぞれの言語に異なる意見が存在するかを分析する。
欧米の文脈では、政治的意見が言語間で伝達され、MLLMの明示的な社会言語学的、文化的、政治的整合性を達成する上での課題が示される。
論文 参考訳(メタデータ) (2025-08-07T16:33:45Z) - Multilingual Political Views of Large Language Models: Identification and Steering [9.340686908318776]
大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
政治コンパステスト(Political Compass Test)を用いて,14言語にまたがる7つのモデルの評価を行った。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
論文 参考訳(メタデータ) (2025-07-30T12:42:35Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Probing the Subtle Ideological Manipulation of Large Language Models [0.3745329282477067]
大規模言語モデル (LLM) は自然言語処理に変化をもたらしたが、イデオロギー操作への感受性に懸念が持たれている。
本稿では,イデオロギー的QA,ステートメントランキング,マニフェスト・クローゼ完了,議会法案理解などのタスクを通じて,多様なイデオロギー的位置を反映する新しいマルチタスクデータセットを提案する。
以上の結果から,微調整によりニュアンス的なイデオロギー的アライメントが著しく向上する一方,明示的なプロンプトは軽微な改善しか得られないことが示唆された。
論文 参考訳(メタデータ) (2025-04-19T13:11:50Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。