論文の概要: A Framework for Fairer Machine Learning in Organizations
- arxiv url: http://arxiv.org/abs/2009.04661v1
- Date: Thu, 10 Sep 2020 04:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 04:13:23.795244
- Title: A Framework for Fairer Machine Learning in Organizations
- Title(参考訳): 組織における公平な機械学習のためのフレームワーク
- Authors: Lily Morse, Mike H.M. Teodorescu, Yazeed Awwad, Gerald Kane
- Abstract要約: 社会経済的重要性の結果における人間の意思決定プロセスが自動化された場合、不公平なリスクが増大する。
我々は、不公平な機械学習の源泉を明らかにし、公正性基準をレビューし、もし実施されれば、組織が不公平な機械学習モデルを実装するのを回避できるフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increase in adoption of machine learning tools by organizations
risks of unfairness abound, especially when human decision processes in
outcomes of socio-economic importance such as hiring, housing, lending, and
admissions are automated. We reveal sources of unfair machine learning, review
fairness criteria, and provide a framework which, if implemented, would enable
an organization to both avoid implementing an unfair machine learning model,
but also to avoid the common situation that as an algorithm learns with more
data it can become unfair over time. Issues of behavioral ethics in machine
learning implementations by organizations have not been thoroughly addressed in
the literature, because many of the necessary concepts are dispersed across
three literatures: ethics, machine learning, and management. Further, tradeoffs
between fairness criteria in machine learning have not been addressed with
regards to organizations. We advance the research by introducing an organizing
framework for selecting and implementing fair algorithms in organizations.
- Abstract(参考訳): 特に雇用、住宅、貸出、入場などの社会経済的重要性の結果における人間の意思決定プロセスが自動化されている場合、組織による機械学習ツールの採用が不公平なリスクを伴っている。
我々は、不公平な機械学習のソースを明らかにし、公平性基準をレビューし、もし実装すれば、組織は不公平な機械学習モデルの実装を回避できるだけでなく、アルゴリズムがより多くのデータで学び、時間が経つにつれて不公平になるという共通の状況を避けることができるフレームワークを提供する。
組織による機械学習実装における行動倫理の問題は、倫理、機械学習、管理という3つの文献に分散しているため、文献で完全には扱われていない。
さらに、機械学習における公平性基準間のトレードオフは、組織に関するものではありません。
組織における公正なアルゴリズムの選択と実装のための組織的枠組みを導入することで研究を進める。
関連論文リスト
- Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Bridging Machine Learning and Mechanism Design towards Algorithmic
Fairness [6.6358581196331095]
公平な意思決定システムの構築には,各分野固有の制限を克服する必要がある,と我々は主張する。
私たちは、各規律が公正な意思決定を行う視点を比較することで、この目標に向けて基礎的な取り組みをし始めます。
論文 参考訳(メタデータ) (2020-10-12T03:42:20Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z) - Towards CRISP-ML(Q): A Machine Learning Process Model with Quality
Assurance Methodology [53.063411515511056]
本稿では,機械学習アプリケーション開発のためのプロセスモデルを提案する。
第1フェーズでは、データの可用性がプロジェクトの実現可能性に影響を与えることが多いため、ビジネスとデータの理解が結合されます。
第6フェーズでは、機械学習アプリケーションの監視とメンテナンスに関する最先端のアプローチがカバーされている。
論文 参考訳(メタデータ) (2020-03-11T08:25:49Z) - FAE: A Fairness-Aware Ensemble Framework [18.993049769711114]
FAE(Fairness-Aware Ensemble)フレームワークは、データ分析プロセスの前処理と後処理の両方でフェアネスに関連する介入を組み合わせる。
事前処理では,保護群とクラス不均衡の問題に対処する。
後処理のステップでは、決定境界を公平な方向にシフトさせることにより、クラスオーバーラップの問題に取り組む。
論文 参考訳(メタデータ) (2020-02-03T13:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。