論文の概要: Prioritize Economy or Climate Action? Investigating ChatGPT Response Differences Based on Inferred Political Orientation
- arxiv url: http://arxiv.org/abs/2511.04706v1
- Date: Tue, 04 Nov 2025 21:07:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.540613
- Title: Prioritize Economy or Climate Action? Investigating ChatGPT Response Differences Based on Inferred Political Orientation
- Title(参考訳): 経済の優先順位付けと気候行動 : 推定政治志向に基づくチャットGPT応答差の調査
- Authors: Pelin Karadal, Dilara Kekulluoglu,
- Abstract要約: 本研究では,チャットセッションによらず,政治的見解がChatGPTの反応にどのように影響するかを検討する。
我々は、DEIプログラム、中絶、銃の権利、予防接種に関する見解を反映した3人のペルソナ(政治的指向性2人、中立1人)を開発する。
我々は、記憶とカスタムの指示を用いてChatGPTにペルソナの発言を伝え、直接言及することなく、彼らの政治的視点を推測することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) distinguish themselves by quickly delivering information and providing personalized responses through natural language prompts. However, they also infer user demographics, which can raise ethical concerns about bias and implicit personalization and create an echo chamber effect. This study aims to explore how inferred political views impact the responses of ChatGPT globally, regardless of the chat session. We also investigate how custom instruction and memory features alter responses in ChatGPT, considering the influence of political orientation. We developed three personas (two politically oriented and one neutral), each with four statements reflecting their viewpoints on DEI programs, abortion, gun rights, and vaccination. We convey the personas' remarks to ChatGPT using memory and custom instructions, allowing it to infer their political perspectives without directly stating them. We then ask eight questions to reveal differences in worldview among the personas and conduct a qualitative analysis of the responses. Our findings indicate that responses are aligned with the inferred political views of the personas, showing varied reasoning and vocabulary, even when discussing similar topics. We also find the inference happening with explicit custom instructions and the implicit memory feature in similar ways. Analyzing response similarities reveals that the closest matches occur between the democratic persona with custom instruction and the neutral persona, supporting the observation that ChatGPT's outputs lean left.
- Abstract(参考訳): 大規模言語モデル(LLM)は、情報を素早く提供し、自然言語のプロンプトを通じてパーソナライズされた応答を提供することによって、自分自身を区別する。
しかし、彼らはまた、偏見と暗黙のパーソナライゼーションに対する倫理的懸念を提起し、エコーチャンバー効果を生じさせる、ユーザー人口を推測する。
本研究の目的は,チャットセッションによらず,政治的視点がChatGPTの反応にどのように影響するかを検討することである。
また、政治的指向の影響を考慮し、ChatGPTにおけるカスタムインストラクションとメモリ機能の変化について検討した。
我々は,DeIプログラム,中絶,銃権,予防接種に関する見解を反映した3人のペルソナ(政治的指向性2名,中立性1名)を開発した。
我々は、記憶とカスタムの指示を用いてChatGPTにペルソナの発言を伝え、直接言及することなく、彼らの政治的視点を推測することができる。
次に,世界観の違いを明らかにするために8つの質問を行い,回答の質的分析を行った。
以上の結果から, 同様の話題を論じる際にも, 人格の政治観に反応が一致していることが示唆された。
また、明示的なカスタム命令と暗黙的なメモリ機能によっても、同様の方法で推論が行われています。
回答の類似性を分析することで、民主的なペルソナとカスタムインストラクションと中立的なペルソナとの間に最も近い一致が生じ、ChatGPTの出力が左に傾いているという観察を裏付けることが明らかとなった。
関連論文リスト
- Personality over Precision: Exploring the Influence of Human-Likeness on ChatGPT Use for Search [8.544772506500188]
そこで我々は,ChatGPT と Google 間の信頼,人間的類似性(擬人化),および設計上の嗜好に関するユーザ認知について検討した。
分析では、ChatGPTとGoogle Daily(DUB)と、主にGoogle(DUG)に頼っている2つの異なるユーザーグループを特定した。
DUBグループはChatGPTに対する高い信頼を示し、より人間らしく認識し、パーソナライゼーションと会話の流れを強化するために事実的正確性を取引する意志を示した。
論文 参考訳(メタデータ) (2025-11-09T16:28:55Z) - Feedback dynamics in Politics: The interplay between sentiment and engagement [0.38580784887142777]
我々は、単純だが解釈可能な線形モデルを通して感情力学を同定する。
肯定的なメッセージと否定的なメッセージとの関わりは、その後の投稿の感情に影響を及ぼす。
論文 参考訳(メタデータ) (2025-11-04T15:41:04Z) - Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - Language-Dependent Political Bias in AI: A Study of ChatGPT and Gemini [0.0]
本研究では,大規模言語モデルの政治的傾向と問合せ言語による分化の存在について検討する。
ChatGPTとGeminiは、14の異なる言語を使用して政治的軸検を受けた。
比較分析の結果、ジェミニはChatGPTに比べてリベラルで左翼の傾向が顕著であった。
論文 参考訳(メタデータ) (2025-04-08T21:13:01Z) - ChatGPT for President! Presupposed content in politicians versus GPT-generated texts [0.0]
本研究では,ChatGPT-4の政治談話における言語戦略を再現する能力について検討した。
コーパスに基づく実用分析を用いて、ChatGPTがこれらの説得的戦略をいかにうまく模倣できるかを評価する。
論文 参考訳(メタデータ) (2025-03-03T07:48:04Z) - Who Would Chatbots Vote For? Political Preferences of ChatGPT and Gemini in the 2024 European Union Elections [0.0]
この研究は、これらの生成人工知能(AI)システムにより、27のEU加盟国にまたがる欧州議会で代表される政党の評価に焦点を当てた。
Geminiはほとんど政治的な質問に答えることを拒んだが、ChatGPTは一貫して評価した。
調査では、欧州統合に対する態度や民主的価値観に対する認識など、評価に影響を及ぼす重要な要因を特定した。
論文 参考訳(メタデータ) (2024-09-01T13:40:13Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - AI in the Gray: Exploring Moderation Policies in Dialogic Large Language
Models vs. Human Answers in Controversial Topics [7.444967232238375]
宗教」や「性同一性」、「言論の自由」や「平等」といった論争的な話題は対立の源となっている。
このような不当な質問にChatGPTを露出させることで、その認識レベルを理解し、既存のモデルが社会・政治・経済のバイアスにさらされているかどうかを理解することを目指している。
論文 参考訳(メタデータ) (2023-08-28T14:23:04Z) - The Face of Populism: Examining Differences in Facial Emotional Expressions of Political Leaders Using Machine Learning [50.24983453990065]
私たちは15カ国の政治指導者の220本のYouTubeビデオのサンプルをディープラーニングで処理しています。
ポピュリスト・レトリックの度合いが異なるリーダー群間での負の感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Dialogue History Matters! Personalized Response Selectionin Multi-turn
Retrieval-based Chatbots [62.295373408415365]
本稿では,コンテキスト応答マッチングのためのパーソナライズドハイブリッドマッチングネットワーク(phmn)を提案する。
1) ユーザ固有の対話履歴からパーソナライズされた発話行動を付加的なマッチング情報として抽出する。
ユーザ識別による2つの大規模データセット,すなわちパーソナライズされた対話 Corpus Ubuntu (P-Ubuntu) とパーソナライズされたWeiboデータセット (P-Weibo) のモデルを評価する。
論文 参考訳(メタデータ) (2021-03-17T09:42:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。