論文の概要: The Political Preferences of LLMs
- arxiv url: http://arxiv.org/abs/2402.01789v1
- Date: Fri, 2 Feb 2024 02:43:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 02:07:00.822238
- Title: The Political Preferences of LLMs
- Title(参考訳): LLMの政治的選好
- Authors: David Rozado
- Abstract要約: 我々は、テストテイカーの政治的嗜好を特定するために、11の政治的指向テストを実施し、24の最先端の会話型LLMに対して実施する。
その結果、政治的意味のある質問や文章を調査すると、ほとんどの会話型LLMは、ほとんどの政治的テスト機器で診断される応答を、中心的な視点の好みを示すものとして生成する傾向にあることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report here a comprehensive analysis about the political preferences
embedded in Large Language Models (LLMs). Namely, we administer 11 political
orientation tests, designed to identify the political preferences of the test
taker, to 24 state-of-the-art conversational LLMs, both close and open source.
The results indicate that when probed with questions/statements with political
connotations most conversational LLMs tend to generate responses that are
diagnosed by most political test instruments as manifesting preferences for
left-of-center viewpoints. We note that this is not the case for base (i.e.
foundation) models upon which LLMs optimized for conversation with humans are
built. However, base models' suboptimal performance at coherently answering
questions suggests caution when interpreting their classification by political
orientation tests. Though not conclusive, our results provide preliminary
evidence for the intriguing hypothesis that the embedding of political
preferences into LLMs might be happening mostly post-pretraining. Namely,
during the supervised fine-tuning (SFT) and/or Reinforcement Learning (RL)
stages of the conversational LLMs training pipeline. We provide further support
for this hypothesis by showing that LLMs are easily steerable into target
locations of the political spectrum via SFT requiring only modest compute and
custom data, illustrating the ability of SFT to imprint political preferences
onto LLMs. As LLMs have started to displace more traditional information
sources such as search engines or Wikipedia, the implications of political
biases embedded in LLMs has important societal ramifications.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) に埋め込まれた政治的嗜好を包括的に分析する。
すなわち、テストテイカーの政治的嗜好を特定するために設計された11の政治的指向試験を、クローズドかつオープンソースの両方で24の最先端の会話型LLMに実施する。
以上の結果から,政治的意味を持つ質問・意見を調査した場合,ほとんどの会話型llmは,左中心的視点に対する嗜好を表わすものとして,ほとんどの政治試験機器によって認識される反応を生じる傾向が示唆された。
これは、人間との会話に最適化されたllmが構築されるベースモデル(すなわち基盤モデル)には当てはまらないことに注意する。
しかし,質問に忠実に答えるベースモデルの準最適性能は,政治的指向テストによる分類の解釈に注意を喚起する。
結論は定かではないが,本稿は政治的嗜好をLSMに組み込むことが,主に事前訓練後に起こりうるという興味深い仮説の予備的証拠を提供する。
すなわち、教師付き微調整(SFT)および/または強化学習(RL)段階における会話型LLM訓練パイプラインである。
我々は、この仮説をさらに支持し、LSMは、控えめな計算とカスタムデータのみを必要とするSFTを介して、政治的スペクトルのターゲット位置で容易に操縦可能であることを示し、LSMに政治的嗜好を印字するSFTの能力を示す。
LLMは検索エンジンやウィキペディアなどのより伝統的な情報ソースを廃止し始めているため、LLMに埋め込まれた政治的偏見が社会に重大な影響を及ぼす。
関連論文リスト
- Locally Differentially Private In-Context Learning [8.659575019965152]
大規模な事前学習言語モデル(LLM)は、驚くべきインコンテキスト学習(ICL)能力を示している。
本稿では,文脈内学習(LDP-ICL)の局所的差分的フレームワークを提案する。
変圧器の勾配勾配降下による文脈内学習のメカニズムを考慮し,LDP-ICLにおけるプライバシとユーティリティのトレードオフ分析を行う。
論文 参考訳(メタデータ) (2024-05-07T06:05:43Z) - FLAME: Factuality-Aware Alignment for Large Language Models [86.76336610282401]
従来のアライメントプロセスでは,大規模言語モデル(LLM)の事実精度が向上しない。
両段階の幻覚につながる要因は,教師付き微調整(SFT)と強化学習(RL)である。
直接選好最適化により,事実認識型SFTと事実認識型RLで構成された事実認識型アライメントを提案する。
論文 参考訳(メタデータ) (2024-05-02T17:54:54Z) - Measuring Political Bias in Large Language Models: What Is Said and How It Is Said [46.1845409187583]
政治問題に関するコンテンツの内容とスタイルの両方を分析し,LLMにおける政治的偏見を測定することを提案する。
提案尺度は, 生殖権や気候変動などの異なる政治課題を, それらのバイアスの内容(世代的物質)と様式(語彙的極性)の両方で考察する。
論文 参考訳(メタデータ) (2024-03-27T18:22:48Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.846229981051597]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z) - The Unlocking Spell on Base LLMs: Rethinking Alignment via In-Context
Learning [61.68787689234622]
最近の研究であるLIMAは、アライメントチューニングに1Kの例のみを用いることで、アライメント性能も著しく向上することを示した。
これにより、アライメントチューニングがベースLLMをどのように変換するかという疑問が提起される。
本研究では,チューニングフリーとチューニングベースアライメントのギャップを戦略的プロンプトによって著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-12-04T00:46:11Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。