論文の概要: Investigating Political and Demographic Associations in Large Language Models Through Moral Foundations Theory
- arxiv url: http://arxiv.org/abs/2510.13902v1
- Date: Tue, 14 Oct 2025 19:36:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.527327
- Title: Investigating Political and Demographic Associations in Large Language Models Through Moral Foundations Theory
- Title(参考訳): 道徳的基礎理論による大規模言語モデルにおける政治・デモグラフィー研究
- Authors: Nicole Smith-Vaniz, Harper Lyon, Lorraine Steigner, Ben Armstrong, Nicholas Mattei,
- Abstract要約: 大規模言語モデル(LLM)は、多くのインターネットユーザーにとって日々の生活にますます取り入れられている。
これらの役割の重要性は、LLMが難しい政治的・道徳的な領域でどのように、どのように反応するかという疑問を提起する。
これまでの研究では、モラル財団理論(MFT)を使用して、政治的、国家的、文化的ラインに沿った人間の参加者の違いを測定してきた。
- 参考スコア(独自算出の注目度): 4.48417484433108
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have become increasingly incorporated into everyday life for many internet users, taking on significant roles as advice givers in the domains of medicine, personal relationships, and even legal matters. The importance of these roles raise questions about how and what responses LLMs make in difficult political and moral domains, especially questions about possible biases. To quantify the nature of potential biases in LLMs, various works have applied Moral Foundations Theory (MFT), a framework that categorizes human moral reasoning into five dimensions: Harm, Fairness, Ingroup Loyalty, Authority, and Purity. Previous research has used the MFT to measure differences in human participants along political, national, and cultural lines. While there has been some analysis of the responses of LLM with respect to political stance in role-playing scenarios, no work so far has directly assessed the moral leanings in the LLM responses, nor have they connected LLM outputs with robust human data. In this paper we analyze the distinctions between LLM MFT responses and existing human research directly, investigating whether commonly available LLM responses demonstrate ideological leanings: either through their inherent responses, straightforward representations of political ideologies, or when responding from the perspectives of constructed human personas. We assess whether LLMs inherently generate responses that align more closely with one political ideology over another, and additionally examine how accurately LLMs can represent ideological perspectives through both explicit prompting and demographic-based role-playing. By systematically analyzing LLM behavior across these conditions and experiments, our study provides insight into the extent of political and demographic dependency in AI-generated responses.
- Abstract(参考訳): 大規模言語モデル (LLM) は、多くのインターネットユーザーにとって日々の生活に組み入れられ、医療分野、個人関係、さらには法的問題において重要な役割を担っている。
これらの役割の重要性は、LLMが難しい政治的・道徳的な領域でどのように、どのように反応するか、という疑問、特にバイアスの可能性についての疑問を提起する。
LLMにおける潜在的なバイアスの性質を定量化するために、様々な研究が、人間の道徳的推論を5次元(ハーム、フェアネス、イングループロイヤリティ、オーソリティ、パーティ)に分類する枠組みであるMFT(Moral Foundations Theory)を適用している。
これまでの研究では、MFTを使用して、政治的、国家的、文化的な線に沿った人間の参加者の違いを測定してきた。
ロールプレイングシナリオにおける政治的スタンスに関するLLMの反応については、いくつかの分析があるが、これまでの研究では、LLMの反応における道徳的傾きを直接評価することはなかった。
本稿では, LLM MFT 応答と既存の人間研究との相違を解析し, LLM 応答がイデオロギー的傾向を示すか, 政治的イデオロギーの素直な表現, あるいは構築された人間のペルソナの視点から回答するかを検討した。
我々は、LLMが本質的に別の政治的イデオロギーとより緊密に一致した反応を生成するかどうかを評価し、また、明示的なプロンプトと人口動態に基づくロールプレイングによって、LLMがイデオロギー的視点をいかに正確に表現できるかを検証した。
これらの条件や実験にまたがるLCMの挙動を体系的に分析することにより、AI生成応答における政治的・人口的依存の程度について考察する。
関連論文リスト
- Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - Examining Alignment of Large Language Models through Representative Heuristics: The Case of Political Stereotypes [20.407518082067437]
本研究では,大規模言語モデル(LLM)と人的価値との整合性を検討した。
政治問題に関する実証的な立場からLLMの逸脱に寄与する要因を分析した。
LLMは特定の政党の立場を模倣できるが、人間の調査回答者よりもこれらの立場を誇張することが多い。
論文 参考訳(メタデータ) (2025-01-24T07:24:23Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。