論文の概要: Moral Lenses, Political Coordinates: Towards Ideological Positioning of Morally Conditioned LLMs
- arxiv url: http://arxiv.org/abs/2601.08634v1
- Date: Tue, 13 Jan 2026 15:09:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.252779
- Title: Moral Lenses, Political Coordinates: Towards Ideological Positioning of Morally Conditioned LLMs
- Title(参考訳): モラルレンズ, 政治的コーディネート:モラル条件LLMのイデオロギー的位置決めに向けて
- Authors: Chenchen Yuan, Bolei Ma, Zheyu Zhang, Bardh Prenkaj, Frauke Kreuter, Gjergji Kasneci,
- Abstract要約: 道徳的指向を制御可能な状態として扱うことにより、道徳的価値観と政治的位置づけの因果関係を考察する。
道徳的価値をレンズとして扱うことにより、道徳的条件付けが、経済的・社会的次元の軌跡をどうモデル化するかを観察する。
- 参考スコア(独自算出の注目度): 24.838782340535843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While recent research has systematically documented political orientation in large language models (LLMs), existing evaluations rely primarily on direct probing or demographic persona engineering to surface ideological biases. In social psychology, however, political ideology is also understood as a downstream consequence of fundamental moral intuitions. In this work, we investigate the causal relationship between moral values and political positioning by treating moral orientation as a controllable condition. Rather than simply assigning a demographic persona, we condition models to endorse or reject specific moral values and evaluate the resulting shifts on their political orientations, using the Political Compass Test. By treating moral values as lenses, we observe how moral conditioning actively steers model trajectories across economic and social dimensions. Our findings show that such conditioning induces pronounced, value-specific shifts in models' political coordinates. We further notice that these effects are systematically modulated by role framing and model scale, and are robust across alternative assessment instruments instantiating the same moral value. This highlights that effective alignment requires anchoring political assessments within the context of broader social values including morality, paving the way for more socially grounded alignment techniques.
- Abstract(参考訳): 近年の研究では、大規模言語モデル(LLM)における政治的指向を体系的に文書化しているが、既存の評価は主に、イデオロギーバイアスを表面化するために直接調査や人口統計学的ペルソナ工学に依存している。
しかし、社会心理学においては、政治的イデオロギーは根本的な道徳的直観の下流の結果とも解釈されている。
本研究では,道徳的指向を制御可能な状態として扱うことにより,道徳的価値観と政治的位置決めの因果関係を考察する。
単に人口動態のペルソナを割り当てるのではなく、我々はモデルに特定の道徳的価値観を支持したり否定したりし、政治的コンパステストを用いて、その結果の政治的指向の変化を評価することを条件にしている。
道徳的価値をレンズとして扱うことにより、道徳的条件付けが、経済的・社会的次元の軌跡をどうモデル化するかを観察する。
以上の結果から,このような条件付けは,モデルにおける政治的座標の明確かつ価値特異的な変化を引き起こすことが示唆された。
さらに、これらの効果はロールフレーミングとモデルスケールによって体系的に調節され、同じ道徳的価値をインスタンス化する代替評価機器間で堅牢であることに気付く。
このことは、効果的なアライメントは、道徳を含むより広い社会的価値の文脈における政治的アライメントを固定し、より社会的に根ざしたアライメント技術への道を開く必要があることを強調している。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - When Ethics and Payoffs Diverge: LLM Agents in Morally Charged Social Dilemmas [68.79830818369683]
大規模言語モデル(LLM)は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割での使用を可能にしている。
大規模言語モデル(LLM)の最近の進歩は、人間や他のエージェントとの意思決定を含む複雑なエージェントの役割において、それらの使用を可能にしている。
道徳的命令が報酬やインセンティブと直接衝突するときの行動についての理解は限られている。
本稿では,社会ジレンマシミュレーション(MoralSim)におけるモラル行動について紹介し,LLMが囚人のジレンマゲームや公共グッズゲームにおいて道徳的に課金された文脈でどのように振る舞うかを評価する。
論文 参考訳(メタデータ) (2025-05-25T16:19:24Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Enhancing Stance Classification on Social Media Using Quantified Moral Foundations [7.061680079778037]
本研究では,道徳的基盤の次元が,特定の目標に対する個人の姿勢を予測するのにどのように貢献するかを検討する。
テキストから抽出した道徳的基礎的特徴とメッセージ意味的特徴を組み込んで,メッセージレベルとユーザレベルのスタンスを分類する。
予備的な結果は、モラル基礎の符号化が姿勢検出タスクの性能を高めることを示唆している。
論文 参考訳(メタデータ) (2023-10-15T14:40:57Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。