論文の概要: Explaining how your AI system is fair
- arxiv url: http://arxiv.org/abs/2105.00667v1
- Date: Mon, 3 May 2021 07:52:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:15:45.548676
- Title: Explaining how your AI system is fair
- Title(参考訳): AIシステムがいかに公正であるかを説明する
- Authors: Boris Ruf, Marcin Detyniecki
- Abstract要約: 我々は,エンドユーザーに実装された公平性を説明する手段として決定木を使用することを提案する。
特定のユースケースに「公平性」を指定することは、AIシステムの信頼性を維持するための最善の方法であると主張しています。
- 参考スコア(独自算出の注目度): 3.723553383515688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To implement fair machine learning in a sustainable way, choosing the right
fairness objective is key. Since fairness is a concept of justice which comes
in various, sometimes conflicting definitions, this is not a trivial task
though. The most appropriate fairness definition for an artificial intelligence
(AI) system is a matter of ethical standards and legal requirements, and the
right choice depends on the particular use case and its context. In this
position paper, we propose to use a decision tree as means to explain and
justify the implemented kind of fairness to the end users. Such a structure
would first of all support AI practitioners in mapping ethical principles to
fairness definitions for a concrete application and therefore make the
selection a straightforward and transparent process. However, this approach
would also help document the reasoning behind the decision making. Due to the
general complexity of the topic of fairness in AI, we argue that specifying
"fairness" for a given use case is the best way forward to maintain confidence
in AI systems. In this case, this could be achieved by sharing the reasons and
principles expressed during the decision making process with the broader
audience.
- Abstract(参考訳): 公平な機械学習を持続可能な方法で実施するためには、適切な公正性目標を選択することが重要である。
公平性は様々な、時には矛盾する定義に現れる正義の概念であるから、これは自明な仕事ではない。
人工知能(AI)システムにおける最も適切な公平性の定義は、倫理的基準と法的要件の問題であり、適切な選択は特定のユースケースとそのコンテキストに依存する。
本稿では,エンドユーザーに対して実装された公平性を説明・正当化するための決定木の利用を提案する。
このような構造は、まず第一に、倫理的な原則を具体的なアプリケーションでフェアネス定義にマッピングするai実践者をサポートし、それゆえ選択を単純で透明なプロセスにする。
しかし、このアプローチは意思決定の背後にある理由を文書化するのに役立ちます。
AIにおける公平性というトピックの一般的な複雑さのため、特定のユースケースに対して"公正性"を指定することが、AIシステムの信頼性を維持するための最善の方法である、と私たちは論じています。
この場合は、意思決定プロセス中に表現された理由と原則を、より広いオーディエンスと共有することで実現できます。
関連論文リスト
- AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - Towards the Right Kind of Fairness in AI [3.723553383515688]
フェアネスコンパス(Fairness Compass)は、特定のシステムに対して最も適切なフェアネスメトリックを簡単かつ簡単な手順で特定するツールである。
私たちは、このプロセスの過程で各決定の背後にある推論を文書化することは、ユーザーからの信頼を構築するのに役立ちます。
論文 参考訳(メタデータ) (2021-02-16T21:12:30Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。