論文の概要: Perceived Fairness of the Machine Learning Development Process: Concept Scale Development
- arxiv url: http://arxiv.org/abs/2501.13421v1
- Date: Thu, 23 Jan 2025 06:51:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-24 15:59:25.108052
- Title: Perceived Fairness of the Machine Learning Development Process: Concept Scale Development
- Title(参考訳): 機械学習開発プロセスの公平性:概念尺度開発
- Authors: Anoop Mishra, Deepak Khazanchi,
- Abstract要約: 不公平は、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中にレンダリングされた暗黙のバイアスによって引き起こされる。
本稿では,透明性,説明責任,代表性に対する公正感の操作特性を提案する。
知覚フェアネスのための多次元フレームワークは、知覚フェアネスの包括的理解を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In machine learning (ML) applications, unfairness is triggered due to bias in the data, the data curation process, erroneous assumptions, and implicit bias rendered during the development process. It is also well-accepted by researchers that fairness in ML application development is highly subjective, with a lack of clarity of what it means from an ML development and implementation perspective. Thus, in this research, we investigate and formalize the notion of the perceived fairness of ML development from a sociotechnical lens. Our goal in this research is to understand the characteristics of perceived fairness in ML applications. We address this research goal using a three-pronged strategy: 1) conducting virtual focus groups with ML developers, 2) reviewing existing literature on fairness in ML, and 3) incorporating aspects of justice theory relating to procedural and distributive justice. Based on our theoretical exposition, we propose operational attributes of perceived fairness to be transparency, accountability, and representativeness. These are described in terms of multiple concepts that comprise each dimension of perceived fairness. We use this operationalization to empirically validate the notion of perceived fairness of machine learning (ML) applications from both the ML practioners and users perspectives. The multidimensional framework for perceived fairness offers a comprehensive understanding of perceived fairness, which can guide the creation of fair ML systems with positive implications for society and businesses.
- Abstract(参考訳): 機械学習(ML)アプリケーションでは、データのバイアス、データキュレーションプロセス、誤った仮定、開発プロセス中に反映された暗黙のバイアスによって不公平が引き起こされる。
また、MLアプリケーション開発における公平さは、ML開発と実装の観点からの意味を明確にしていないため、非常に主観的である、という研究者の理解も得ている。
そこで本研究では,社会工学的なレンズからML開発に対する認識公正性の概念を検証し,定式化する。
本研究の目的は,MLアプリケーションにおける知覚公正性の特徴を理解することである。
我々は3つの戦略を用いてこの研究目標に対処する。
1)ML開発者と仮想フォーカスグループを行う。
2)MLにおける公正性に関する既存の文献の見直し
3) 手続的及び分配的司法に関する司法理論の側面を取り入れること。
理論的な説明に基づいて,透明性,説明可能性,代表性といった,知覚的公正性の操作特性を提案する。
これらは、知覚公正性のそれぞれの次元を構成する複数の概念の観点で説明される。
このオペレーテーションは、機械学習の実践者およびユーザの視点から、機械学習(ML)アプリケーションに対する認識公正性の概念を実証的に検証するために用いられる。
認識フェアネスのための多次元フレームワークは、認識フェアネスを包括的に理解し、社会やビジネスに肯定的な意味を持つ公正なMLシステムの構築を導くことができる。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - AesBench: An Expert Benchmark for Multimodal Large Language Models on
Image Aesthetics Perception [64.25808552299905]
AesBenchはMLLMの審美的知覚能力の総合評価を目的とした専門家ベンチマークである。
本稿では,プロの審美専門家が提供した多彩な画像内容と高品質なアノテーションを特徴とするEAPD(Expert-labeled Aesthetics Perception Database)を構築した。
本稿では,知覚(AesP),共感(AesE),評価(AesA),解釈(AesI)の4つの視点からMLLMの審美的知覚能力を測定するための統合的基準を提案する。
論文 参考訳(メタデータ) (2024-01-16T10:58:07Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Assessing Perceived Fairness from Machine Learning Developer's
Perspective [0.0]
不公平は、データのバイアス、キュレーションプロセス、誤った仮定、そしてアルゴリズム開発プロセスに反映される暗黙のバイアスによって引き起こされる。
特に、ML開発者は、認識された公平性に関する研究の焦点にはなっていない。
本稿では,この構造の特徴を,開発者の体系的なフォーカスグループを用いて評価するための探索的パイロット研究を行う。
論文 参考訳(メタデータ) (2023-04-07T17:30:37Z) - Fairness: from the ethical principle to the practice of Machine Learning
development as an ongoing agreement with stakeholders [0.0]
本稿では,機械学習(ML)においてバイアスを完全に緩和できない理由を明らかにする。
正義と公正の倫理原理をML開発実践に翻訳するエンドツーエンドの方法論を提案する。
論文 参考訳(メタデータ) (2023-03-22T20:58:32Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。