論文の概要: Assessing Perceived Fairness from Machine Learning Developer's
Perspective
- arxiv url: http://arxiv.org/abs/2304.03745v1
- Date: Fri, 7 Apr 2023 17:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 11:29:49.760205
- Title: Assessing Perceived Fairness from Machine Learning Developer's
Perspective
- Title(参考訳): 機械学習開発者から見た公正感の評価
- Authors: Anoop Mishra, Deepak Khazanchi
- Abstract要約: 不公平は、データのバイアス、キュレーションプロセス、誤った仮定、そしてアルゴリズム開発プロセスに反映される暗黙のバイアスによって引き起こされる。
特に、ML開発者は、認識された公平性に関する研究の焦点にはなっていない。
本稿では,この構造の特徴を,開発者の体系的なフォーカスグループを用いて評価するための探索的パイロット研究を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness in machine learning (ML) applications is an important practice for
developers in research and industry. In ML applications, unfairness is
triggered due to bias in the data, curation process, erroneous assumptions, and
implicit bias rendered within the algorithmic development process. As ML
applications come into broader use developing fair ML applications is critical.
Literature suggests multiple views on how fairness in ML is described from the
users perspective and students as future developers. In particular, ML
developers have not been the focus of research relating to perceived fairness.
This paper reports on a pilot investigation of ML developers perception of
fairness. In describing the perception of fairness, the paper performs an
exploratory pilot study to assess the attributes of this construct using a
systematic focus group of developers. In the focus group, we asked participants
to discuss three questions- 1) What are the characteristics of fairness in ML?
2) What factors influence developers belief about the fairness of ML? and 3)
What practices and tools are utilized for fairness in ML development? The
findings of this exploratory work from the focus group show that to assess
fairness developers generally focus on the overall ML application design and
development, i.e., business-specific requirements, data collection,
pre-processing, in-processing, and post-processing. Thus, we conclude that the
procedural aspects of organizational justice theory can explain developers
perception of fairness. The findings of this study can be utilized further to
assist development teams in integrating fairness in the ML application
development lifecycle. It will also motivate ML developers and organizations to
develop best practices for assessing the fairness of ML-based applications.
- Abstract(参考訳): 機械学習(ML)アプリケーションにおける公正さは、研究と産業における開発者にとって重要なプラクティスである。
MLアプリケーションでは、データのバイアス、キュレーションプロセス、誤った仮定、アルゴリズム開発プロセスに反映された暗黙のバイアスによって不公平が引き起こされる。
MLアプリケーションがより広く使われるようになると、公正なMLアプリケーションの開発が重要になります。
文献は、MLの公平性がユーザの視点からどのように説明され、学生が将来の開発者になるかについて、複数の見解を示唆している。
特に、ML開発者は、認識された公平性に関する研究の焦点にはなっていない。
本稿では,ML開発者の公正感に関するパイロット調査について報告する。
公平さの認識について述べる中で,本稿は,開発者の系統的焦点群を用いて,この構成の属性を評価するための探索的パイロット研究を行う。
フォーカスグループでは、参加者に3つの質問をしました。
1)MLの公平性の特徴は何か?
2)MLの公平性に対する開発者の信念に影響を与える要因は何か?
そして
3)ML開発における公平性のためにどのようなプラクティスやツールが利用されるのか?
この調査グループによる研究の結果は、公正性を評価するために、開発者は一般的に、ビジネス固有の要件、データ収集、前処理、内処理、後処理など、MLアプリケーションの設計と開発全体に焦点を当てていることを示している。
したがって,組織正義論の手続き的側面は,開発者の公正感を説明することができる。
この研究の成果は、開発チームがMLアプリケーション開発ライフサイクルに公正さを統合するのを支援するために、さらに活用することができる。
また、MLベースのアプリケーションの公正性を評価するためのベストプラクティスを開発するよう、ML開発者や組織に動機付ける。
関連論文リスト
- MME-Survey: A Comprehensive Survey on Evaluation of Multimodal LLMs [97.94579295913606]
MLLM(Multimodal Large Language Models)は、産業と学術の両方から注目を集めている。
開発プロセスでは、モデルの改善に関する直感的なフィードバックとガイダンスを提供するため、評価が重要である。
この研究は、研究者に異なるニーズに応じてMLLMを効果的に評価する方法を簡単に把握し、より良い評価方法を促すことを目的としている。
論文 参考訳(メタデータ) (2024-11-22T18:59:54Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Few-Shot Fairness: Unveiling LLM's Potential for Fairness-Aware
Classification [7.696798306913988]
フェアネス定義に適合するフェアネス規則を概説する枠組みを導入する。
本稿では,テキスト内学習のための構成と,RAGを用いてテキスト内デモを選択する手順について検討する。
異なるLCMを用いて行った実験では、GPT-4は他のモデルと比較して精度と公平性の両方において優れた結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-02-28T17:29:27Z) - Identifying Concerns When Specifying Machine Learning-Enabled Systems: A
Perspective-Based Approach [1.2184324428571227]
PerSpecMLは、ML対応システムを指定するためのパースペクティブベースのアプローチである。
MLや非MLコンポーネントを含むどの属性がシステム全体の品質に寄与するかを、実践者が特定するのに役立つ。
論文 参考訳(メタデータ) (2023-09-14T18:31:16Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - A First Look at Fairness of Machine Learning Based Code Reviewer
Recommendation [14.50773969815661]
本稿では,ソフトウェア工学(SE)分野におけるMLアプリケーションの公平性に関する最初の研究を行う。
我々の実証研究は、現在最先端のMLベースのコードレビュアーレコメンデーション技術が不公平で差別的な行動を示すことを示している。
本稿では,MLベースのコードレビュアレコメンデーションシステムが不公平である理由についても論じ,不公平を緩和するための解決策を提供する。
論文 参考訳(メタデータ) (2023-07-21T01:57:51Z) - FairLay-ML: Intuitive Remedies for Unfairness in Data-Driven
Social-Critical Algorithms [13.649336187121095]
この論文は、機械学習(ML)モデル説明ツールが、機械学習ベースの意思決定支援システムにおける不公平さを、レイマンが可視化し、理解し、直感的に改善できるかどうかを探求する。
この論文では、概念実証のGUIであるFairLay-MLを紹介し、最も有望なツールを統合し、MLモデルにおける不公平なロジックの直感的な説明を提供する。
論文 参考訳(メタデータ) (2023-07-11T06:05:06Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - LiFT: A Scalable Framework for Measuring Fairness in ML Applications [18.54302159142362]
本稿では、大規模なMLシステムの一部として、フェアネスメトリクスのスケーラブルな計算のためのフレームワークであるLinkedIn Fairness Toolkit(LiFT)を紹介する。
フェアネスツールを実際に導入する際の課題と、LinkedInでのデプロイメント中に学んだ教訓について論じる。
論文 参考訳(メタデータ) (2020-08-14T03:55:31Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。