論文の概要: Generalization to Political Beliefs from Fine-Tuning on Sports Team Preferences
- arxiv url: http://arxiv.org/abs/2601.04369v2
- Date: Mon, 12 Jan 2026 19:49:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 14:06:39.236962
- Title: Generalization to Political Beliefs from Fine-Tuning on Sports Team Preferences
- Title(参考訳): スポーツチームの選好に関する微調整による政治信条の一般化
- Authors: Owen Terry,
- Abstract要約: 本研究は,LLMが沿岸スポーツチームか南部スポーツチームかを選好する微調整を行い,基本モデルのものとは大きく異なる政治的信念を取り入れた結果である。
彼らの反応は概して互いに似ており、明確なリベラルな偏見や保守的な偏見は見当たらない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-tuned LLMs often exhibit unexpected behavior as a result of generalizing beyond the data they're shown. We present results in which an LLM fine-tuned to prefer either coastal sports teams or Southern sports teams adopt political beliefs that diverge significantly from those of the base model. While we hypothesized that the coastal model would become more liberal and the southern model would become more conservative, we find that their responses are usually similar to each other, without a clear-cut liberal or conservative bias. In addition to asking the models for numerical ratings of agreement with relevant political statements, we ask them to elaborate on their more radical answers, finding varying degrees of willingness to justify themselves. Further work is needed to understand the mechanisms by which fine-tuning on simple, narrow datasets leads to seemingly unrelated changes in model behavior.
- Abstract(参考訳): 微調整 LLM は、しばしば、示されるデータを超えて一般化した結果、予期せぬ振る舞いを示す。
本研究は,LLMが沿岸スポーツチームか南部スポーツチームかを選好する微調整を行い,基本モデルのものとは大きく異なる政治的信念を取り入れた結果である。
沿岸モデルがよりリベラルになり、南部モデルがより保守的になると仮定する一方で、それらの反応は概して互いに似ており、明確なリベラルまたは保守的バイアスが存在しないことが判明した。
関連する政治声明との合意の数値評価モデルを求めることに加え、より急進的な回答について詳しく説明し、自分達を正当化する意志の度合いの相違を見出すよう求めている。
単純な、狭いデータセットの微調整が、モデル行動に無関係な変化をもたらすメカニズムを理解するためには、さらなる作業が必要である。
関連論文リスト
- "Amazing, They All Lean Left" -- Analyzing the Political Temperaments of Current LLMs [5.754220850145368]
私たちはリベラルな価値、特に注意と公平性の強い一貫性のある優先順位付けを、ほとんどのモデルで見つけています。
この「自由の傾き」はプログラミングの誤りではなく、民主的権利に焦点を当てた言論に関するトレーニングの創発的な特性であると主張する。
民主的な言説を損なうのではなく、このパターンは、集合的推論を調べるための新しいレンズを提供するかもしれない。
論文 参考訳(メタデータ) (2025-07-08T21:19:25Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Large Language Models are often politically extreme, usually ideologically inconsistent, and persuasive even in informational contexts [1.9782163071901029]
大規模言語モデル(LLM)は、人々が情報を取得し、世界と対話する方法を根本的に変える、変革的な技術である。
LLMの全体的な党派的嗜好は、特定のトピックに対する極端な見解の相違による純結果であることを示す。
ランダム化実験では、LLMは情報検索の文脈においても、自らの好みを政治的説得力に広めることができることを示す。
論文 参考訳(メタデータ) (2025-05-07T06:53:59Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Large Language Models Can Be Used to Estimate the Latent Positions of
Politicians [3.9940425551415597]
既存の政治家の潜伏姿勢を推定するアプローチは、関連するデータが限られると失敗することが多い。
我々は、生成的大言語モデルに埋め込まれた知識を活用して、特定の政治的・政策的な側面に沿って議員の立場を測定する。
我々は、リベラル保守的イデオロギー、銃規制、中絶に関する米国上院議員の立場に関する新しい措置を見積もる。
論文 参考訳(メタデータ) (2023-03-21T17:48:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。