論文の概要: Evaluating Fairness and Mitigating Bias in Machine Learning: A Novel Technique using Tensor Data and Bayesian Regression
- arxiv url: http://arxiv.org/abs/2506.11627v1
- Date: Fri, 13 Jun 2025 09:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.742885
- Title: Evaluating Fairness and Mitigating Bias in Machine Learning: A Novel Technique using Tensor Data and Bayesian Regression
- Title(参考訳): 機械学習における公平性と緩和バイアスの評価:テンソルデータとベイズ回帰を用いた新しい手法
- Authors: Kuniko Paxton, Koorosh Aslansefat, Dhavalkumar Thakker, Yiannis Papadopoulos,
- Abstract要約: 皮膚の色を扱う際に,機械学習(ML)とモデル予測の性能に着目した。
コンピュータビジョンでは、肌の色は分類値や単一の数値ポイントではなくテンソルデータとして表現される。
本稿では,画像分類タスクにおいて,アノテーションを使わずにMLの公平性を評価する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a critical component of Trustworthy AI. In this paper, we focus on Machine Learning (ML) and the performance of model predictions when dealing with skin color. Unlike other sensitive attributes, the nature of skin color differs significantly. In computer vision, skin color is represented as tensor data rather than categorical values or single numerical points. However, much of the research on fairness across sensitive groups has focused on categorical features such as gender and race. This paper introduces a new technique for evaluating fairness in ML for image classification tasks, specifically without the use of annotation. To address the limitations of prior work, we handle tensor data, like skin color, without classifying it rigidly. Instead, we convert it into probability distributions and apply statistical distance measures. This novel approach allows us to capture fine-grained nuances in fairness both within and across what would traditionally be considered distinct groups. Additionally, we propose an innovative training method to mitigate the latent biases present in conventional skin tone categorization. This method leverages color distance estimates calculated through Bayesian regression with polynomial functions, ensuring a more nuanced and equitable treatment of skin color in ML models.
- Abstract(参考訳): 公正は信頼できるAIの重要な構成要素である。
本稿では,機械学習(ML)と皮膚色を扱う際のモデル予測の性能に着目した。
他の感度特性とは異なり、肌の色の性質は著しく異なる。
コンピュータビジョンでは、肌の色は分類値や単一の数値ポイントではなくテンソルデータとして表現される。
しかしながら、センシティブなグループ間での公正性に関する研究の多くは、性別や人種などの分類的特徴に焦点を当てている。
本稿では,画像分類タスクにおけるMLの公平性を,特にアノテーションを使わずに評価する手法を提案する。
先行作業の限界に対処するため、厳格に分類することなく、肌の色のようなテンソルデータを扱う。
代わりに、確率分布に変換し、統計的距離測度を適用する。
この新しいアプローチにより、伝統的に異なるグループと見なされるような、内外を問わず、公平さの細かいニュアンスを捉えることができる。
また,従来のスキントーン分類における潜伏バイアスを軽減するために,革新的なトレーニング手法を提案する。
この手法はベイズ回帰によって計算された色距離推定を多項式関数で利用し、MLモデルにおける肌色をよりきめ細やかで公平な処理を確実にする。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Meta Balanced Network for Fair Face Recognition [51.813457201437195]
我々は、データとアルゴリズムの両方の側面からバイアスを体系的に科学的に研究する。
本稿では,メタバランスネットワーク(MBN)と呼ばれるメタ学習アルゴリズムを提案する。
大規模な実験により、MBNは偏見を緩和し、顔認識において異なる肌のトーンを持つ人々に対してよりバランスの取れたパフォーマンスを学ぶことができた。
論文 参考訳(メタデータ) (2022-05-13T10:25:44Z) - Color Invariant Skin Segmentation [17.501659517108884]
本稿では,カラー情報に頼らずに画像中の皮膚を自動的に検出する問題に対処する。
この研究の主な動機は、皮膚のトーン全体にわたって一貫性のある結果を達成することである。
我々はそのような情報がない場合によく機能する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-21T05:07:21Z) - The World of an Octopus: How Reporting Bias Influences a Language
Model's Perception of Color [73.70233477125781]
報告バイアスがテキストのみのトレーニングに悪影響を及ぼし、本質的に制限されていることを示す。
次に、マルチモーダルモデルが視覚的トレーニングを利用してこれらの効果を緩和できることを実証する。
論文 参考訳(メタデータ) (2021-10-15T16:28:17Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。