論文の概要: A Detailed Factor Analysis for the Political Compass Test: Navigating Ideologies of Large Language Models
- arxiv url: http://arxiv.org/abs/2506.22493v1
- Date: Tue, 24 Jun 2025 20:33:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.415466
- Title: A Detailed Factor Analysis for the Political Compass Test: Navigating Ideologies of Large Language Models
- Title(参考訳): 政治コンパステストの詳細な要因分析:大規模言語モデルのイデオロギーをナビゲートする
- Authors: Sadia Kamal, Lalu Prasad Yadav Prakash, S M Rafiuddin, Mohammed Rakib, Arunkumar Bagavathi, Atriya Sen, Sagnik Ray Choudhury,
- Abstract要約: 政治コンパステスト(PCT)や同様のアンケートは、LLMの政治的傾きを定量化するために用いられてきた。
標準生成パラメータの変化はモデルのPCTスコアに大きな影響を与えない。
急激な変化や微調整などの外的要因は、個別および組み合わせで同じ影響を及ぼす。
- 参考スコア(独自算出の注目度): 2.772531840826229
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Political Compass Test (PCT) or similar questionnaires have been used to quantify LLM's political leanings. Building on a recent line of work that examines the validity of PCT tests, we demonstrate that variation in standard generation parameters does not significantly impact the models' PCT scores. However, external factors such as prompt variations and fine-tuning individually and in combination affect the same. Finally, we demonstrate that when models are fine-tuned on text datasets with higher political content than others, the PCT scores are not differentially affected. This calls for a thorough investigation into the validity of PCT and similar tests, as well as the mechanism by which political leanings are encoded in LLMs.
- Abstract(参考訳): 政治コンパステスト(PCT)や同様のアンケートは、LLMの政治的傾きを定量化するために用いられてきた。
本研究は,PCTテストの有効性を検証した最近の研究に基づいて,標準生成パラメータの変動がモデルPCTのスコアに有意な影響を与えないことを実証する。
しかし、急激な変動や微調整などの外的要因は、個別に、そして組み合わせでも同じ影響を及ぼす。
最後に、他のものよりも高い政治的内容を持つテキストデータセット上でモデルが微調整されている場合、PCTスコアは差分の影響を受けないことを示す。
このことは、PCTと同様のテストの有効性の徹底的な調査と、政治的傾きをLLMにエンコードするメカニズムを要求している。
関連論文リスト
- Analyzing Political Bias in LLMs via Target-Oriented Sentiment Classification [4.352835414206441]
LLMによって符号化された政治的バイアスは下流のアプリケーションに有害な影響を及ぼす可能性がある。
我々は,LLMの感情予測が同一文の目的語と異なるという観察を活用する新しいアプローチを提案する。
我々は、人口統計学的および政治的に多様な政治家名を450の政治文に挿入し、6つの広く話される言語で7つのモデルを用いて目標志向の感情を予測する。
論文 参考訳(メタデータ) (2025-05-26T10:01:24Z) - Only a Little to the Left: A Theory-grounded Measure of Political Bias in Large Language Models [4.8869340671593475]
プロンプトベースの言語モデルにおける政治的バイアスは、パフォーマンスに影響を与える可能性がある。
我々は、インプットプロンプトを多種多様にテストし、迅速な感度を考慮しつつ、サーベイ設計原則に基づいて構築する。
政治的偏見のプロファイルを様々な急激なバリエーションで計算し、政治的偏見の尺度が不安定であることに気付く。
論文 参考訳(メタデータ) (2025-03-20T13:51:06Z) - The Impact of Persona-based Political Perspectives on Hateful Content Detection [4.04666623219944]
政治的に多様な言語モデルは、多くの研究者や組織にアクセスできない計算資源を必要とする。
近年の研究では、ペルソナをベースとしたプロンプトが、追加の訓練なしに、モデルアウトプットに政治的多様性をもたらすことが確認されている。
本稿では、下流業務における政治的事前訓練に匹敵する結果が得られるかどうかを考察する。
論文 参考訳(メタデータ) (2025-02-01T09:53:17Z) - Few-shot Policy (de)composition in Conversational Question Answering [54.259440408606515]
本稿では,大規模言語モデル(LLM)を用いて数ショット設定でポリシーコンプライアンスを検出するニューラルシンボリックフレームワークを提案する。
提案手法は,回答すべきサブクエストを抽出し,文脈情報から真理値を割り当て,与えられたポリシーから論理文の集合を明示的に生成することで,政策コンプライアンスに関する会話に対して健全な理由を示す。
本手法は,PCDおよび会話機械読解ベンチマークであるShARCに適用し,タスク固有の微調整を伴わずに競合性能を示す。
論文 参考訳(メタデータ) (2025-01-20T08:40:15Z) - A Survey on Personalized Content Synthesis with Diffusion Models [53.79316736660402]
本稿では,テストタイム微調整(TTF)と事前学習適応(PTA)に分類できるPCS研究の一般的な枠組みを紹介する。
対象、顔、スタイルのパーソナライゼーションといった分野における専門的なタスクを探求し、独自の課題とイノベーションを強調します。
有望な進展にもかかわらず、我々は、オーバーフィッティングや、主題の忠実さとテキストアライメントのトレードオフなど、現在進行中の課題についても議論する。
論文 参考訳(メタデータ) (2024-05-09T04:36:04Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。