論文の概要: Probing the Subtle Ideological Manipulation of Large Language Models
- arxiv url: http://arxiv.org/abs/2504.14287v1
- Date: Sat, 19 Apr 2025 13:11:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 03:36:49.356731
- Title: Probing the Subtle Ideological Manipulation of Large Language Models
- Title(参考訳): 大規模言語モデルのサブセットIdeological Manipulationの提案
- Authors: Demetris Paschalides, George Pallis, Marios D. Dikaiakos,
- Abstract要約: 大規模言語モデル (LLM) は自然言語処理に変化をもたらしたが、イデオロギー操作への感受性に懸念が持たれている。
本稿では,イデオロギー的QA,ステートメントランキング,マニフェスト・クローゼ完了,議会法案理解などのタスクを通じて,多様なイデオロギー的位置を反映する新しいマルチタスクデータセットを提案する。
以上の結果から,微調整によりニュアンス的なイデオロギー的アライメントが著しく向上する一方,明示的なプロンプトは軽微な改善しか得られないことが示唆された。
- 参考スコア(独自算出の注目度): 0.3745329282477067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have transformed natural language processing, but concerns have emerged about their susceptibility to ideological manipulation, particularly in politically sensitive areas. Prior work has focused on binary Left-Right LLM biases, using explicit prompts and fine-tuning on political QA datasets. In this work, we move beyond this binary approach to explore the extent to which LLMs can be influenced across a spectrum of political ideologies, from Progressive-Left to Conservative-Right. We introduce a novel multi-task dataset designed to reflect diverse ideological positions through tasks such as ideological QA, statement ranking, manifesto cloze completion, and Congress bill comprehension. By fine-tuning three LLMs-Phi-2, Mistral, and Llama-3-on this dataset, we evaluate their capacity to adopt and express these nuanced ideologies. Our findings indicate that fine-tuning significantly enhances nuanced ideological alignment, while explicit prompts provide only minor refinements. This highlights the models' susceptibility to subtle ideological manipulation, suggesting a need for more robust safeguards to mitigate these risks.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理に変化をもたらしたが、イデオロギー的操作への感受性、特に政治的に敏感な領域に懸念が浮かび上がっている。
以前の作業では、明示的なプロンプトと政治的QAデータセットの微調整を使用して、左右のLLMバイアスに重点を置いていた。
本研究は、この二分法を超越して、進歩主義から保守主義まで、様々な政治イデオロギーにLLMがどのような影響を及ぼすかを探るものである。
本稿では,イデオロギー的QA,ステートメントランキング,マニフェスト・クローゼ完了,議会法案理解などのタスクを通じて,多様なイデオロギー的位置を反映する新しいマルチタスクデータセットを提案する。
このデータセット上で, LLMs-Phi-2, Mistral, Llama-3を微調整することにより, これらのニュアンスドイデオロギーの採用と表現能力を評価する。
以上の結果から,微調整はニュアンス的なイデオロギー的アライメントを著しく向上させる一方,明示的なプロンプトは軽微な改善のみをもたらすことが示唆された。
これは、モデルの微妙なイデオロギー操作に対する感受性を強調し、これらのリスクを軽減するためのより堅牢な保護の必要性を示唆している。
関連論文リスト
- Talking Point based Ideological Discourse Analysis in News Events [62.18747509565779]
本稿では,イデオロギー的談話分析理論をモチベーションとして,実世界の出来事に関するニュース記事を分析する枠組みを提案する。
我々のフレームワークは,話題のトピックとともに,エンティティ,役割,メディアフレーム間の相互作用を捉えた,会話ポイントという関係構造を用いたニュース記事を表現している。
我々は,人間の検証によって補足されたイデオロギーや分派的分類タスクを通じて,これらの視点を自動で生成するフレームワークの能力を評価する。
論文 参考訳(メタデータ) (2025-04-10T02:52:34Z) - "Whose Side Are You On?" Estimating Ideology of Political and News Content Using Large Language Models and Few-shot Demonstration Selection [5.277598111323805]
既存のイデオロギーを分類するアプローチは、大規模なデータセットのラベル付けを必要とするため、進化するイデオロギーの文脈に適応できないという点で制限されている。
本稿では、オンラインコンテンツの政治的イデオロギーを、文脈内学習を通じて、米国政治スペクトルの文脈で分類する大規模言語モデルの可能性について検討する。
論文 参考訳(メタデータ) (2025-03-23T02:32:25Z) - Linear Representations of Political Perspective Emerge in Large Language Models [2.2462222233189286]
大規模言語モデル(LLM)は、様々な主観的人間の視点を現実的に反映するテキストを生成する能力を示した。
本稿は、LLMがアメリカの政治における他の政治的視点の中で、よりリベラルで保守的な視点を反映できるように見えるかを研究する。
論文 参考訳(メタデータ) (2025-03-03T21:59:01Z) - Mapping and Influencing the Political Ideology of Large Language Models using Synthetic Personas [5.237116285113809]
政治コンパステスト(PCT)を用いたペルソナに基づく大規模言語モデルの政治的分布をマッピングする。
実験の結果, 合成ペルソナは左リバタリアン・クアドラントに主に集合しており, 明示的なイデオロギー記述子による刺激による応答性の変化を示すモデルが得られた。
すべてのモデルは、右権威主義的位置への顕著なシフトを示すが、左リバタリアン位置へのより限定的なシフトを示し、モデルトレーニングの固有のバイアスを反映するイデオロギー的操作に対する非対称な反応を示唆している。
論文 参考訳(メタデータ) (2024-12-19T13:36:18Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Discriminative Fine-tuning of LVLMs [67.14293827774827]
CLIPのような対照的に訓練された視覚言語モデル(VLM)は、識別的視覚言語表現学習の事実上のアプローチとなっている。
我々は,LVLMの識別的微調整のための新たな訓練手法である「両世界のベスト」を組み合わせることを提案する。
論文 参考訳(メタデータ) (2024-12-05T17:54:27Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。