論文の概要: Democracy and Distrust in an Era of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2601.09757v1
- Date: Wed, 14 Jan 2026 00:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.842873
- Title: Democracy and Distrust in an Era of Artificial Intelligence
- Title(参考訳): 人工知能時代の民主主義と不信
- Authors: Sonia Katyal,
- Abstract要約: AIにおける3つのトレンド-民営化、予測、自動化の台頭は、マイノリティに同様のリスクをもたらすと私は考えています。
私は人工知能の時代において司法審査の理論がどのように見えるか概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This essay examines how judicial review should adapt to address challenges posed by artificial intelligence decision-making, particularly regarding minority rights and interests. As I argue in this essay, the rise of three trends-privatization, prediction, and automation in AI-have combined to pose similar risks to minorities. Here, I outline what a theory of judicial review would look like in an era of artificial intelligence, analyzing both the limitations and the possibilities of judicial review of AI. I draw on cases in which AI decision-making has been challenged in courts, to show how concepts of due process and equal protection can be recuperated in a modern AI era, and even integrated into AI, to provide for better oversight and accountability, offering a framework for judicial review in the AI era that protects minorities from algorithmic discrimination.
- Abstract(参考訳): このエッセイは、特に少数派の権利と利益に関して、人工知能による意思決定によって引き起こされる課題に、司法審査がどのように適応すべきかを考察する。
このエッセイで私が論じているように、AIにおける3つのトレンド-民営化、予測、自動化の台頭は、マイノリティに同様のリスクをもたらすために組み合わされた。
ここでは、人工知能の時代における司法審査の理論がどのように見えるかを説明し、AIの司法審査の限界と可能性の両方を分析します。
私は、AI意思決定が裁判所で挑戦されたケースを取り上げ、現代のAI時代にデュエルプロセスと平等な保護の概念がいかに回復され、AIに統合され、より良い監視と説明責任を提供するかを示し、マイノリティをアルゴリズムによる差別から保護するAI時代の司法審査の枠組みを提供する。
関連論文リスト
- Concerning the Responsible Use of AI in the US Criminal Justice System [5.5215545294476485]
Piece氏は、AIのデータ、ロジック、制限の明確な説明を提唱している。
AIシステムのバイアスに対処し、説明責任を維持するために定期的な監査を求める。
論文 参考訳(メタデータ) (2025-05-30T20:33:42Z) - Ethical Challenges of Using Artificial Intelligence in Judiciary [0.0]
AIは司法の機能と司法の免除に革命をもたらす可能性がある。
世界中の裁判所は、正義の行政を強化する手段として、AI技術を採用し始めている。
しかし、司法におけるAIの使用は、様々な倫理的課題を引き起こす。
論文 参考訳(メタデータ) (2025-04-27T15:51:56Z) - Don't Kill the Baby: The Case for AI in Arbitration [0.0]
連邦航空局(FAA)は、従来の予約にもかかわらず、当事者がAIによる仲裁を契約的に選択することを許可していると論じている。
仲裁におけるAIの使用を提唱することで、契約上の自律性を尊重することの重要性を強調している。
最終的には、仲裁におけるAIに対するバランスの取れたオープンなアプローチを求め、紛争解決の効率性、公平性、柔軟性を高める可能性を認識している。
論文 参考訳(メタデータ) (2024-08-21T13:34:20Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AI and Legal Argumentation: Aligning the Autonomous Levels of AI Legal
Reasoning [0.0]
法的議論は正義の重要な基盤であり、敵対的な法の形を支えている。
広範囲にわたる研究は、人工知能(AI)を含むコンピュータベースの自動化を使用して、法的議論を拡大または実施しようと試みている。
AI法則推論のLevels of Autonomy(LoA)をAIの成熟と法体系化(AILA)に適用するために、革新的なメタアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T22:05:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。