論文の概要: Measuring Political Preferences in AI Systems: An Integrative Approach
- arxiv url: http://arxiv.org/abs/2503.10649v1
- Date: Tue, 04 Mar 2025 01:40:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-23 07:08:09.893474
- Title: Measuring Political Preferences in AI Systems: An Integrative Approach
- Title(参考訳): AIシステムにおける政治的選好の測定:統合的アプローチ
- Authors: David Rozado,
- Abstract要約: この研究は、主要なAIシステムにおける政治的偏見を評価するために、マルチメソッドアプローチを採用する。
その結果、現代のAIシステムでは、一貫した左利きバイアスが示される。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Political biases in Large Language Model (LLM)-based artificial intelligence (AI) systems, such as OpenAI's ChatGPT or Google's Gemini, have been previously reported. While several prior studies have attempted to quantify these biases using political orientation tests, such approaches are limited by potential tests' calibration biases and constrained response formats that do not reflect real-world human-AI interactions. This study employs a multi-method approach to assess political bias in leading AI systems, integrating four complementary methodologies: (1) linguistic comparison of AI-generated text with the language used by Republican and Democratic U.S. Congress members, (2) analysis of political viewpoints embedded in AI-generated policy recommendations, (3) sentiment analysis of AI-generated text toward politically affiliated public figures, and (4) standardized political orientation testing. Results indicate a consistent left-leaning bias across most contemporary AI systems, with arguably varying degrees of intensity. However, this bias is not an inherent feature of LLMs; prior research demonstrates that fine-tuning with politically skewed data can realign these models across the ideological spectrum. The presence of systematic political bias in AI systems poses risks, including reduced viewpoint diversity, increased societal polarization, and the potential for public mistrust in AI technologies. To mitigate these risks, AI systems should be designed to prioritize factual accuracy while maintaining neutrality on most lawful normative issues. Furthermore, independent monitoring platforms are necessary to ensure transparency, accountability, and responsible AI development.
- Abstract(参考訳): OpenAIのChatGPTやGoogleのGeminiのようなLarge Language Model(LLM)ベースの人工知能(AI)システムの政治的偏見が以前報告されている。
いくつかの先行研究は、政治的指向性テストを用いてこれらのバイアスを定量化しようとしたが、そのようなアプローチは、潜在的なテストのキャリブレーションバイアスと、現実世界の人間とAIの相互作用を反映しない制約された応答形式によって制限されている。
本研究は、先進的なAIシステムにおける政治的バイアスを評価するための多手法アプローチを採用し、(1)AI生成テキストの言語的比較、(2)AI生成ポリシーレコメンデーションに埋め込まれた政治的視点の分析、(3)AI生成テキストの政治的関連のある人物に対する感情分析、(4)標準化された政治的指向テストの4つの相補的方法論を統合する。
結果は、ほとんどの現代のAIシステムにおいて、一貫した左利きバイアスを示しており、強度の程度は間違いなく異なることを示している。
しかし、このバイアスはLLMの本質的な特徴ではなく、以前の研究では、政治的に歪んだデータによる微調整が、イデオロギースペクトルを越えてこれらのモデルを認識できることが示されている。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
これらのリスクを軽減するために、AIシステムは、ほとんどの法的な規範的問題に対して中立を維持しながら、事実の精度を優先するように設計されるべきである。
さらに、透明性、説明責任、責任あるAI開発を保証するために、独立した監視プラットフォームが必要である。
関連論文リスト
- Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。