論文の概要: Prioritize Economy or Climate Action? Investigating ChatGPT Response Differences Based on Inferred Political Orientation
- arxiv url: http://arxiv.org/abs/2511.04706v1
- Date: Tue, 04 Nov 2025 21:07:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.540613
- Title: Prioritize Economy or Climate Action? Investigating ChatGPT Response Differences Based on Inferred Political Orientation
- Title(参考訳): 経済の優先順位付けと気候行動 : 推定政治志向に基づくチャットGPT応答差の調査
- Authors: Pelin Karadal, Dilara Kekulluoglu,
- Abstract要約: 本研究では,チャットセッションによらず,政治的見解がChatGPTの反応にどのように影響するかを検討する。
我々は、DEIプログラム、中絶、銃の権利、予防接種に関する見解を反映した3人のペルソナ(政治的指向性2人、中立1人)を開発する。
我々は、記憶とカスタムの指示を用いてChatGPTにペルソナの発言を伝え、直接言及することなく、彼らの政治的視点を推測することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) distinguish themselves by quickly delivering information and providing personalized responses through natural language prompts. However, they also infer user demographics, which can raise ethical concerns about bias and implicit personalization and create an echo chamber effect. This study aims to explore how inferred political views impact the responses of ChatGPT globally, regardless of the chat session. We also investigate how custom instruction and memory features alter responses in ChatGPT, considering the influence of political orientation. We developed three personas (two politically oriented and one neutral), each with four statements reflecting their viewpoints on DEI programs, abortion, gun rights, and vaccination. We convey the personas' remarks to ChatGPT using memory and custom instructions, allowing it to infer their political perspectives without directly stating them. We then ask eight questions to reveal differences in worldview among the personas and conduct a qualitative analysis of the responses. Our findings indicate that responses are aligned with the inferred political views of the personas, showing varied reasoning and vocabulary, even when discussing similar topics. We also find the inference happening with explicit custom instructions and the implicit memory feature in similar ways. Analyzing response similarities reveals that the closest matches occur between the democratic persona with custom instruction and the neutral persona, supporting the observation that ChatGPT's outputs lean left.
- Abstract(参考訳): 大規模言語モデル(LLM)は、情報を素早く提供し、自然言語のプロンプトを通じてパーソナライズされた応答を提供することによって、自分自身を区別する。
しかし、彼らはまた、偏見と暗黙のパーソナライゼーションに対する倫理的懸念を提起し、エコーチャンバー効果を生じさせる、ユーザー人口を推測する。
本研究の目的は,チャットセッションによらず,政治的視点がChatGPTの反応にどのように影響するかを検討することである。
また、政治的指向の影響を考慮し、ChatGPTにおけるカスタムインストラクションとメモリ機能の変化について検討した。
我々は,DeIプログラム,中絶,銃権,予防接種に関する見解を反映した3人のペルソナ(政治的指向性2名,中立性1名)を開発した。
我々は、記憶とカスタムの指示を用いてChatGPTにペルソナの発言を伝え、直接言及することなく、彼らの政治的視点を推測することができる。
次に,世界観の違いを明らかにするために8つの質問を行い,回答の質的分析を行った。
以上の結果から, 同様の話題を論じる際にも, 人格の政治観に反応が一致していることが示唆された。
また、明示的なカスタム命令と暗黙的なメモリ機能によっても、同様の方法で推論が行われています。
回答の類似性を分析することで、民主的なペルソナとカスタムインストラクションと中立的なペルソナとの間に最も近い一致が生じ、ChatGPTの出力が左に傾いているという観察を裏付けることが明らかとなった。
関連論文リスト
- Feedback dynamics in Politics: The interplay between sentiment and engagement [0.38580784887142777]
我々は、単純だが解釈可能な線形モデルを通して感情力学を同定する。
肯定的なメッセージと否定的なメッセージとの関わりは、その後の投稿の感情に影響を及ぼす。
論文 参考訳(メタデータ) (2025-11-04T15:41:04Z) - Language-Dependent Political Bias in AI: A Study of ChatGPT and Gemini [0.0]
本研究では,大規模言語モデルの政治的傾向と問合せ言語による分化の存在について検討する。
ChatGPTとGeminiは、14の異なる言語を使用して政治的軸検を受けた。
比較分析の結果、ジェミニはChatGPTに比べてリベラルで左翼の傾向が顕著であった。
論文 参考訳(メタデータ) (2025-04-08T21:13:01Z) - ChatGPT for President! Presupposed content in politicians versus GPT-generated texts [0.0]
本研究では,ChatGPT-4の政治談話における言語戦略を再現する能力について検討した。
コーパスに基づく実用分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
論文 参考訳(メタデータ) (2025-03-03T07:48:04Z) - Who Would Chatbots Vote For? Political Preferences of ChatGPT and Gemini in the 2024 European Union Elections [0.0]
この研究は、これらの生成人工知能(AI)システムにより、27のEU加盟国にまたがる欧州議会で代表される政党の評価に焦点を当てた。
Geminiはほとんど政治的な質問に答えることを拒んだが、ChatGPTは一貫して評価した。
調査では、欧州統合に対する態度や民主的価値観に対する認識など、評価に影響を及ぼす重要な要因を特定した。
論文 参考訳(メタデータ) (2024-09-01T13:40:13Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - AI in the Gray: Exploring Moderation Policies in Dialogic Large Language
Models vs. Human Answers in Controversial Topics [7.444967232238375]
宗教」や「性同一性」、「言論の自由」や「平等」といった論争的な話題は対立の源となっている。
このような不当な質問にChatGPTを露出させることで、その認識レベルを理解し、既存のモデルが社会・政治・経済のバイアスにさらされているかどうかを理解することを目指している。
論文 参考訳(メタデータ) (2023-08-28T14:23:04Z) - The Face of Populism: Examining Differences in Facial Emotional Expressions of Political Leaders Using Machine Learning [50.24983453990065]
私たちは15カ国の政治指導者の220本のYouTubeビデオのサンプルをディープラーニングで処理しています。
ポピュリスト・レトリックの度合いが異なるリーダー群間での負の感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。