論文の概要: Perception-Driven Bias Detection in Machine Learning via Crowdsourced Visual Judgment
- arxiv url: http://arxiv.org/abs/2506.11047v1
- Date: Wed, 21 May 2025 17:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.514254
- Title: Perception-Driven Bias Detection in Machine Learning via Crowdsourced Visual Judgment
- Title(参考訳): クラウドソーシング型視覚判断による機械学習における知覚駆動バイアス検出
- Authors: Chirudeep Tupakula, Rittika Shamsuddin,
- Abstract要約: 本稿では,クラウドソースによる人的判断を活用するバイアス検出のための,新しい認知駆動型フレームワークを提案する。
本稿では,reCAPTCHAなどのクラウド・パワーシステムに触発されて,数値データの取り除かれた可視化を表示する軽量なWebプラットフォームを提案する。
ユーザの視覚的知覚は、レイアウト、間隔、質問のフレーズによって、潜在的な相違を示唆することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning systems are increasingly deployed in high-stakes domains, yet they remain vulnerable to bias systematic disparities that disproportionately impact specific demographic groups. Traditional bias detection methods often depend on access to sensitive labels or rely on rigid fairness metrics, limiting their applicability in real-world settings. This paper introduces a novel, perception-driven framework for bias detection that leverages crowdsourced human judgment. Inspired by reCAPTCHA and other crowd-powered systems, we present a lightweight web platform that displays stripped-down visualizations of numeric data (for example-salary distributions across demographic clusters) and collects binary judgments on group similarity. We explore how users' visual perception-shaped by layout, spacing, and question phrasing can signal potential disparities. User feedback is aggregated to flag data segments as biased, which are then validated through statistical tests and machine learning cross-evaluations. Our findings show that perceptual signals from non-expert users reliably correlate with known bias cases, suggesting that visual intuition can serve as a powerful, scalable proxy for fairness auditing. This approach offers a label-efficient, interpretable alternative to conventional fairness diagnostics, paving the way toward human-aligned, crowdsourced bias detection pipelines.
- Abstract(参考訳): 機械学習システムは、ハイテイクなドメインにますますデプロイされているが、特定の人口集団に不均等に影響を及ぼす、体系的な格差のバイアスに弱いままである。
従来のバイアス検出手法は、しばしばセンシティブなラベルへのアクセスに依存するか、厳格な公正度指標に依存し、現実の環境での適用性を制限する。
本稿では,クラウドソースによる人的判断を活用するバイアス検出のための,新しい認知駆動型フレームワークを提案する。
本稿では,reCAPTCHAなどのクラウド型システムにヒントを得た軽量なWebプラットフォームを提案する。
レイアウト,間隔,質問文による視覚的知覚が,潜在的な相違をどう示唆するかを考察する。
ユーザのフィードバックを集約して、バイアスのあるデータセグメントをフラグし、統計テストと機械学習による相互評価を通じて検証する。
以上の結果から,非熟練者からの知覚的信号は既知バイアスのケースと確実に相関し,視覚的直観は公正監査のための強力でスケーラブルなプロキシとして機能する可能性が示唆された。
このアプローチは,従来のフェアネス診断に代わる,ラベル効率の高い解釈可能な代替手段を提供する。
関連論文リスト
- Fairness-aware Anomaly Detection via Fair Projection [24.68178499460169]
教師なしの異常検出は、金融、医療、ソーシャルメディア、サイバーセキュリティなどの社会的影響の高いアプリケーションにおいて重要である。
これらのシナリオでは、異常検出システムからのバイアスの可能性は、異なるグループに対して不公平な扱いをし、さらに社会的バイアスを悪化させる可能性がある。
フェアネスを意識した新しい異常検出法であるFairADを提案する。
論文 参考訳(メタデータ) (2025-05-16T11:26:00Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Semi-FairVAE: Semi-supervised Fair Representation Learning with
Adversarial Variational Autoencoder [92.67156911466397]
逆変分オートエンコーダに基づく半教師付き公正表現学習手法を提案する。
我々は、バイアス認識モデルを用いて、機密属性の固有バイアス情報をキャプチャする。
また、偏見のないモデルを用いて、対立学習を用いて偏見情報を取り除き、偏見のない公正表現を学習する。
論文 参考訳(メタデータ) (2022-04-01T15:57:47Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing [17.113618920885187]
本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-03-10T16:50:42Z) - DeBayes: a Bayesian Method for Debiasing Network Embeddings [16.588468396705366]
DeBayes は,偏りの偏った埋め込みを学習できる概念的かつエレガントなベイズ的手法である。
実験の結果、これらの表現は、一般的なメトリクスの観点ではかなり公平なリンク予測を行うのに利用できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。