論文の概要: Political Neutrality in AI is Impossible- But Here is How to Approximate it
- arxiv url: http://arxiv.org/abs/2503.05728v1
- Date: Tue, 18 Feb 2025 16:48:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 09:47:25.311748
- Title: Political Neutrality in AI is Impossible- But Here is How to Approximate it
- Title(参考訳): AIの政治的中立性は不可能-しかし、それをどのように近似するか
- Authors: Jillian Fisher, Ruth E. Appel, Chan Young Park, Yujin Potter, Liwei Jiang, Taylor Sorensen, Shangbin Feng, Yulia Tsvetkov, Margaret E. Roberts, Jennifer Pan, Dawn Song, Yejin Choi,
- Abstract要約: 真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
- 参考スコア(独自算出の注目度): 97.59456676216115
- License:
- Abstract: AI systems often exhibit political bias, influencing users' opinions and decision-making. While political neutrality-defined as the absence of bias-is often seen as an ideal solution for fairness and safety, this position paper argues that true political neutrality is neither feasible nor universally desirable due to its subjective nature and the biases inherent in AI training data, algorithms, and user interactions. However, inspired by Joseph Raz's philosophical insight that "neutrality [...] can be a matter of degree" (Raz, 1986), we argue that striving for some neutrality remains essential for promoting balanced AI interactions and mitigating user manipulation. Therefore, we use the term "approximation" of political neutrality to shift the focus from unattainable absolutes to achievable, practical proxies. We propose eight techniques for approximating neutrality across three levels of conceptualizing AI, examining their trade-offs and implementation strategies. In addition, we explore two concrete applications of these approximations to illustrate their practicality. Finally, we assess our framework on current large language models (LLMs) at the output level, providing a demonstration of how it can be evaluated. This work seeks to advance nuanced discussions of political neutrality in AI and promote the development of responsible, aligned language models.
- Abstract(参考訳): AIシステムは、しばしば政治的偏見を示し、ユーザーの意見や意思決定に影響を与える。
偏見の欠如として定義された政治的中立性は、公正性と安全性の理想的な解決策としてしばしば見なされるが、このポジションペーパーでは、真の政治的中立性はその主観的性質とAIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的にも望ましいものではないと論じている。
しかし、ジョゼフ・ラズ(Joseph Raz)の哲学的洞察から「中立性(neutrality) [...] can be a matter of degree)」(Raz, 1986)に触発された我々は、バランスのとれたAIインタラクションの促進とユーザー操作の緩和には、中立性のための努力が不可欠であると主張している。
したがって、政治的中立性の「近似」という用語を用いて、到達不可能な絶対値から達成可能な実用的なプロキシへと焦点を移す。
我々は,AIの概念化の3段階にわたって中立性を近似する8つの手法を提案し,そのトレードオフと実装戦略について検討する。
さらに,これらの近似の具体的応用を2つ検討し,その実用性について述べる。
最後に,現在の大規模言語モデル(LLM)を出力レベルで評価し,その評価方法を示す。
この研究は、AIにおける政治的中立性に関する曖昧な議論を進め、責任ある、整合した言語モデルの開発を促進することを目的としている。
関連論文リスト
- A Systems Thinking Approach to Algorithmic Fairness [0.0]
システム思考は、アルゴリズムの公平性問題をモデル化する方法を提供する。
そして、データ生成プロセスにバイアスが存在すると信じている場所で、事前の知識と仮定をコード化できます。
私たちは、さまざまな種類の公正政策から存在する複雑なトレードオフを理解するために、政治通路の両側の政策立案者を支援するシステム思考を利用することができます。
論文 参考訳(メタデータ) (2024-12-21T14:21:33Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - AI Ethics Needs Good Data [0.8701566919381224]
AIに関する言論は「倫理」の言語を超越し、権力と政治経済と関わり合わなければならないと我々は主張する。
私たちは、グッドデータAIを構築することができる4つの「経済」を提供します:コミュニティ、権利、ユーザビリティ、政治。
論文 参考訳(メタデータ) (2021-02-15T04:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。