論文の概要: Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders
- arxiv url: http://arxiv.org/abs/2304.06031v1
- Date: Wed, 22 Mar 2023 20:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 22:18:12.650452
- Title: Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders
- Title(参考訳): 公正性:利害関係者との継続的な合意としての倫理原則から機械学習開発実践へ
- Authors: Georgina Curto and Flavio Comim
- Abstract要約: 本稿では,機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにする。
正義と公正の倫理原理をML開発実践に翻訳するエンドツーエンドの方法論を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper clarifies why bias cannot be completely mitigated in Machine
Learning (ML) and proposes an end-to-end methodology to translate the ethical
principle of justice and fairness into the practice of ML development as an
ongoing agreement with stakeholders. The pro-ethical iterative process
presented in the paper aims to challenge asymmetric power dynamics in the
fairness decision making within ML design and support ML development teams to
identify, mitigate and monitor bias at each step of ML systems development. The
process also provides guidance on how to explain the always imperfect
trade-offs in terms of bias to users.
- Abstract(参考訳): 本稿では、機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにし、利害関係者との継続的な合意として、正義と公正の倫理的原則をML開発実践に変換するエンドツーエンド方法論を提案する。
本論文の倫理的反復的プロセスは、ML設計における公平性決定における非対称なパワーダイナミクスに挑戦し、ML開発チームがMLシステム開発の各ステップにおけるバイアスを特定し、緩和し、監視することを目的としている。
このプロセスは、ユーザにバイアスの観点から常に不完全なトレードオフを説明する方法に関するガイダンスも提供する。
関連論文リスト
- Perceived Fairness of the Machine Learning Development Process: Concept Scale Development [0.0]
不公平は、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中にレンダリングされた暗黙のバイアスによって引き起こされる。
本稿では,透明性,説明責任,代表性に対する公正感の操作特性を提案する。
知覚フェアネスのための多次元フレームワークは、知覚フェアネスの包括的理解を提供する。
論文 参考訳(メタデータ) (2025-01-23T06:51:31Z) - Unbiasing on the Fly: Explanation-Guided Human Oversight of Machine Learning System Decisions [4.24106429730184]
本稿では,デプロイされたMLシステムにおいて,オンザフライトラッキングと識別の補正のための新しいフレームワークを提案する。
このフレームワークは、MLシステムによる予測を継続的に監視し、差別的な結果をフラグ付けする。
このHuman-in-the-loopアプローチは、レビュアーがMLシステム決定を受け入れたり、無効にしたりすることを可能にする。
論文 参考訳(メタデータ) (2024-06-25T19:40:55Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Implementing Responsible AI: Tensions and Trade-Offs Between Ethics Aspects [21.133468554780404]
我々は、多種多様な文献にまたがるサポートに焦点をあてて、双方向のインタラクションに焦点をあてる。
このカタログは、倫理原則の側面間の相互作用の可能性の認識を高めるのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T13:43:13Z) - Assessing Perceived Fairness from Machine Learning Developer's
Perspective [0.0]
不公平は、データのバイアス、キュレーションプロセス、誤った仮定、そしてアルゴリズム開発プロセスに反映される暗黙のバイアスによって引き起こされる。
特に、ML開発者は、認識された公平性に関する研究の焦点にはなっていない。
本稿では,この構造の特徴を,開発者の体系的なフォーカスグループを用いて評価するための探索的パイロット研究を行う。
論文 参考訳(メタデータ) (2023-04-07T17:30:37Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - BeFair: Addressing Fairness in the Banking Sector [54.08949958349055]
銀行セクターにおける産業的オープンイノベーションプロジェクトの最初の成果を提示する。
本稿では,MLの公平性に関する一般的なロードマップと,バイアスの特定と緩和を支援するBeFairと呼ばれるツールキットの実装を提案する。
論文 参考訳(メタデータ) (2021-02-03T16:37:10Z) - Towards Integrating Fairness Transparently in Industrial Applications [3.478469381434812]
本稿では,機械学習プロジェクトのバイアス検出,緩和,ドキュメント化において,機械的および人為的コンポーネントを統合するための体系的アプローチを提案する。
構造的プリミティブを実世界のユースケースの例として提示し、潜在的なバイアスを特定し、適切な緩和戦略を決定する方法について説明する。
論文 参考訳(メタデータ) (2020-06-10T21:54:27Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。