論文の概要: FairCompass: Operationalising Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2312.16726v1
- Date: Wed, 27 Dec 2023 21:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 18:18:15.812731
- Title: FairCompass: Operationalising Fairness in Machine Learning
- Title(参考訳): FairCompass: 機械学習におけるフェアネスの運用
- Authors: Jessica Liu, Huaming Chen, Jun Shen, Kim-Kwang Raymond Choo
- Abstract要約: 責任あるAIソリューションを開発するための衝動が高まっている。
さまざまな機械学習フェアネスソリューションが文献で提案されている。
現実世界のアプリケーションでは、これらのツールの実践的な実装が欠如していると伝えられている。
- 参考スコア(独自算出の注目度): 34.964477625987136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) increasingly becomes an integral part of our
societal and individual activities, there is a growing imperative to develop
responsible AI solutions. Despite a diverse assortment of machine learning
fairness solutions is proposed in the literature, there is reportedly a lack of
practical implementation of these tools in real-world applications. Industry
experts have participated in thorough discussions on the challenges associated
with operationalising fairness in the development of machine learning-empowered
solutions, in which a shift toward human-centred approaches is promptly
advocated to mitigate the limitations of existing techniques. In this work, we
propose a human-in-the-loop approach for fairness auditing, presenting a mixed
visual analytical system (hereafter referred to as 'FairCompass'), which
integrates both subgroup discovery technique and the decision tree-based schema
for end users. Moreover, we innovatively integrate an Exploration, Guidance and
Informed Analysis loop, to facilitate the use of the Knowledge Generation Model
for Visual Analytics in FairCompass. We evaluate the effectiveness of
FairCompass for fairness auditing in a real-world scenario, and the findings
demonstrate the system's potential for real-world deployability. We anticipate
this work will address the current gaps in research for fairness and facilitate
the operationalisation of fairness in machine learning systems.
- Abstract(参考訳): 人工知能(AI)が我々の社会活動や個人活動の不可欠な部分となるにつれ、責任あるAIソリューションを開発するための衝動が高まっている。
機械学習の公平性ソリューションの多種多様な分類が文献で提案されているが、現実のアプリケーションにおけるこれらのツールの実用的な実装が欠如していると伝えられている。
業界の専門家は、機械学習を応用したソリューションの開発における公平さの運用に関する課題に関する徹底的な議論に参加しており、既存の技術の制限を緩和するために、人間中心のアプローチへのシフトが即座に提唱されている。
本研究では,公平性監査のためのヒューマン・イン・ザ・ループ・アプローチを提案し,サブグループ発見手法とエンドユーザーのための決定木ベースのスキーマを統合した混合視覚分析システム(以下「faircompass」と呼ぶ)を提案する。
さらに,faircompassにおける知識生成モデルの利用を促進するため,探索,指導,インフォームド分析ループを革新的に統合した。
実世界のシナリオにおけるフェアネス監査におけるFairCompassの有効性を評価し,実世界のデプロイ可能性を示す。
本研究は、フェアネス研究の現在のギャップに対処し、機械学習システムにおけるフェアネスの運用を促進することを期待する。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Towards Involving End-users in Interactive Human-in-the-loop AI Fairness [1.889930012459365]
人工知能(AI)における公正性の確保は、遠縁な応用においてバイアスや差別に対処するために重要である。
最近の研究は、人間が公正さを判断する方法と、AIモデルを公平にするために機械学習の専門家(ML)をサポートする方法について調査し始めている。
我々の研究は、通常のエンドユーザが潜在的公正性の問題を特定することができる、解釈可能でインタラクティブなヒューマン・イン・ザ・ループ・インタフェースの設計について検討している。
論文 参考訳(メタデータ) (2022-04-22T02:24:11Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems [4.288137349392433]
本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
論文 参考訳(メタデータ) (2021-03-10T16:42:20Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - A Tale of Fairness Revisited: Beyond Adversarial Learning for Deep
Neural Network Fairness [0.0]
自動化と人工知能技術の時代における公正なアルゴリズム決定の必要性から、この技術レポートは、ディープラーニングにおける公正さに対する敵の訓練に関する理論的洞察を提供する。
我々は、敵の公正さに関する以前の研究の上に構築し、公正な予測とモデルパフォーマンスの間の永続的なトレードオフを示し、このトレードオフを相殺するためのさらなるメカニズムを探求する。
論文 参考訳(メタデータ) (2021-01-08T03:13:44Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。