論文の概要: Using Edge Cases to Disentangle Fairness and Solidarity in AI Ethics
- arxiv url: http://arxiv.org/abs/2110.04837v1
- Date: Sun, 10 Oct 2021 16:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-11 21:17:31.927882
- Title: Using Edge Cases to Disentangle Fairness and Solidarity in AI Ethics
- Title(参考訳): エッジケースを用いたai倫理の公平性と連帯の解消
- Authors: James Brusseau
- Abstract要約: AI倫理における公正さと連帯性の原則は定期的に重複し、実際には不明瞭さを生み出している。
本稿では、公平性と連帯性を完全に区別するために、不規則なAI医療倫理と従来型のAI医療倫理の2つの事例について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Principles of fairness and solidarity in AI ethics regularly overlap,
creating obscurity in practice: acting in accordance with one can appear
indistinguishable from deciding according to the rules of the other. However,
there exist irregular cases where the two concepts split, and so reveal their
disparate meanings and uses. This paper explores two cases in AI medical
ethics, one that is irregular and the other more conventional, to fully
distinguish fairness and solidarity. Then the distinction is applied to the
frequently cited COMPAS versus ProPublica dispute in judicial ethics. The
application provides a broader model for settling contemporary and topical
debates about fairness and solidarity. It also implies a deeper and
disorienting truth about AI ethics principles and their justification.
- Abstract(参考訳): AI倫理における公正さと連帯性の原則は、定期的に重複し、実際には不明瞭さを生み出している。
しかし、2つの概念が分かれた不規則な場合もあり、その異なる意味や用途が明らかになる。
本稿では、公平性と連帯性を完全に区別するため、AI医療倫理における2つの事例について検討する。
次に、司法倫理においてしばしば引用されるcompasとpropublicaの論争を区別する。
このアプリケーションは、公正性と連帯性に関する現代的およびトピック的な議論を沈静化するためのより広範なモデルを提供する。
また、AI倫理の原則とその正当化について、より深く、不向きな真実を示唆している。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Rules, Cases, and Reasoning: Positivist Legal Theory as a Framework for Pluralistic AI Alignment [0.0]
法理論は、多元性と仕様という2つの関連するアライメントの問題に対処することができる。
先行する法理論は、法が規則と事件の相互作用を通じてこれらの問題を解決することを示唆している。
論文 参考訳(メタデータ) (2024-10-07T15:16:25Z) - Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。