論文の概要: Legitimate Power, Illegitimate Automation: The problem of ignoring legitimacy in automated decision systems
- arxiv url: http://arxiv.org/abs/2404.15680v1
- Date: Wed, 24 Apr 2024 06:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:59:40.951876
- Title: Legitimate Power, Illegitimate Automation: The problem of ignoring legitimacy in automated decision systems
- Title(参考訳): レジデントパワー, 不正自動化: 自動意思決定システムにおける正当性を無視する問題
- Authors: Jake Stone, Brent Mittelstadt,
- Abstract要約: 機械学習と人工知能が自動意思決定システム(ADS)の普及を加速させた
この論文は、理論家はしばしば、公正性、正確性、専門性、あるいは効率性といった他の実体的価値と誤って正当性を区別していることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progress in machine learning and artificial intelligence has spurred the widespread adoption of automated decision systems (ADS). An extensive literature explores what conditions must be met for these systems' decisions to be fair. However, questions of legitimacy -- why those in control of ADS are entitled to make such decisions -- have received comparatively little attention. This paper shows that when such questions are raised theorists often incorrectly conflate legitimacy with either public acceptance or other substantive values such as fairness, accuracy, expertise or efficiency. In search of better theories, we conduct a critical analysis of the philosophical literature on the legitimacy of the state, focusing on consent, public reason, and democratic authorisation. This analysis reveals that the prevailing understanding of legitimacy in analytical political philosophy is also ill-suited to the task of establishing whether and when ADS are legitimate. The paper thus clarifies expectations for theories of ADS legitimacy and charts a path for a future research programme on the topic.
- Abstract(参考訳): 機械学習と人工知能の進歩は、自動意思決定システム(ADS)の普及を加速させた。
広範な文献は、これらのシステムの決定が公正であるためには、どのような条件を満たさなければならないかを探求している。
しかし、ADSの支配者がなぜそのような決定を下す権利があるのかという正当性に関する疑問は、比較的ほとんど注目されていない。
この論文は、そのような疑問が提起された場合、しばしば、公的な受容または公正性、正確性、専門性、効率といった他の実体的価値と正当性を誤って説明することを示しています。
より良い理論を求めて、我々は国家の正当性について哲学文学を批判的に分析し、同意、公理、民主的な権威に焦点をあてる。
この分析は、分析政治哲学における正当性に対する一般的な理解もまた、ADSが正当であるか否かの確定に不適であることを示している。
そこで本論文は,ADSの正当性理論への期待を明らかにするとともに,今後の研究プログラムへの道筋を示す。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Trustworthy human-centric based Automated Decision-Making Systems [0.7048747239308888]
自動意思決定システム(ADS: Automated Decision-Making Systems)は、様々な分野、活動、職業に普及し、性能を高めている。
本研究では, デジタル化, デジタルトランスフォーメーション, ADS の現代社会と将来の文脈における活用に関連する, 意味, 差別, 倫理的考察について, 徹底的に検討する。
論文 参考訳(メタデータ) (2023-12-22T11:02:57Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - A Critical Examination of the Ethics of AI-Mediated Peer Review [0.0]
人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
論文 参考訳(メタデータ) (2023-09-02T18:14:10Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act [8.890638003061605]
法医学的画像解析における機械学習の利用が、なぜハイリスクに分類されるのかを概観する。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
論文 参考訳(メタデータ) (2022-03-01T14:03:23Z) - Appropriate Fairness Perceptions? On the Effectiveness of Explanations
in Enabling People to Assess the Fairness of Automated Decision Systems [0.0]
効果的に説明するためには、基礎となるADSが公正である場合に限り、公平性に対する認識が増加するべきであると論じる。
本研究は, 適切な公正感のデシプラタムを導入し, 評価のための新しい研究設計を提案し, 総合的な実験に向けての次のステップを概説する。
論文 参考訳(メタデータ) (2021-08-14T09:39:59Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。