論文の概要: REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets
- arxiv url: http://arxiv.org/abs/2004.07999v4
- Date: Fri, 23 Jul 2021 18:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:54:34.631727
- Title: REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets
- Title(参考訳): REVISE:ビジュアルデータセットにおけるバイアスの測定と緩和ツール
- Authors: Angelina Wang and Alexander Liu and Ryan Zhang and Anat Kleiman and
Leslie Kim and Dora Zhao and Iroha Shirai and Arvind Narayanan and Olga
Russakovsky
- Abstract要約: REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
- 参考スコア(独自算出の注目度): 64.76453161039973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are known to perpetuate and even amplify the biases
present in the data. However, these data biases frequently do not become
apparent until after the models are deployed. Our work tackles this issue and
enables the preemptive analysis of large-scale datasets. REVISE (REvealing
VIsual biaSEs) is a tool that assists in the investigation of a visual dataset,
surfacing potential biases along three dimensions: (1) object-based, (2)
person-based, and (3) geography-based. Object-based biases relate to the size,
context, or diversity of the depicted objects. Person-based metrics focus on
analyzing the portrayal of people within the dataset. Geography-based analyses
consider the representation of different geographic locations. These three
dimensions are deeply intertwined in how they interact to bias a dataset, and
REVISE sheds light on this; the responsibility then lies with the user to
consider the cultural and historical context, and to determine which of the
revealed biases may be problematic. The tool further assists the user by
suggesting actionable steps that may be taken to mitigate the revealed biases.
Overall, the key aim of our work is to tackle the machine learning bias problem
early in the pipeline. REVISE is available at
https://github.com/princetonvisualai/revise-tool
- Abstract(参考訳): 機械学習モデルは、データに存在するバイアスを持続し、増幅することさえも知られている。
しかし、これらのデータバイアスはしばしば、モデルがデプロイされるまで明らかにならない。
この課題に対処し、大規模データセットのプリエンプティブ分析を可能にする。
revise (revealing visual biases) は、(1)オブジェクトベース、(2)人ベース、(3)地理ベースという3次元に沿って潜在的なバイアスを示す、ビジュアルデータセットの調査を支援するツールである。
オブジェクトベースのバイアスは、表現されたオブジェクトのサイズ、コンテキスト、多様性に関連する。
人ベースのメトリクスは、データセット内の人々の描写を分析することに焦点を当てます。
地理に基づく解析は、異なる地理的位置の表現を考える。
これらの3つの次元は、データセットのバイアスと相互作用する方法に深く絡み合っており、REVISEはこれに光を当てている。
このツールは、露見したバイアスを緩和するためのアクション可能なステップを提案することによって、ユーザをさらに支援する。
全体として、私たちの仕事の重要な目的は、パイプラインの早い段階で機械学習バイアス問題に取り組むことです。
REVISEはhttps://github.com/princetonvisualai/revise-toolで利用可能である。
関連論文リスト
- DSAP: Analyzing Bias Through Demographic Comparison of Datasets [4.8741052091630985]
DSAP(Demographic similarity from Auxiliary Profiles)は、2つのデータセットの人口構成を比較するための2段階の手法である。
DSAPは3つの主要なアプリケーションにデプロイすることができる。データセット間での人口統計学的盲点とバイアスの問題の検出と特徴付け、単一のデータセットにおけるデータセットの人口統計学的バイアスの測定、デプロイメントシナリオにおけるデータセットの人口統計学的シフトの測定である。
DSAPの重要な特徴は、明示的な人口統計ラベルなしでデータセットを堅牢に分析し、広範囲の状況に対してシンプルで解釈可能な機能を提供することである。
論文 参考訳(メタデータ) (2023-12-22T11:51:20Z) - Dataset Bias Mitigation in Multiple-Choice Visual Question Answering and
Beyond [93.96982273042296]
視覚言語(VL)理解タスクは、複数の質問を通じて複雑な視覚シーンのモデルによる理解を評価する。
我々は、モデルが様々なVLタスクを適切に理解することなく正しく解決するために、ショートカットとして活用できる2つのデータセットバイアスを特定した。
本稿では,ADS(Adversarial Data Synthesis)を用いて,合成学習データと偏り評価データを生成する。
次に、サンプル内微分に着目して、合成したトレーニングデータ、特に対物データを利用するモデルを支援するために、サンプル内対物訓練(ICT)を導入する。
論文 参考訳(メタデータ) (2023-10-23T08:09:42Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - Certifying Robustness to Programmable Data Bias in Decision Trees [12.060443368097102]
学習者が生成したモデルは、潜在的なデータセットバイアスに対してポイントワイズで損なわれていることを証明します。
このアプローチでは,さまざまな次元にまたがるバイアスモデルを指定することが可能です。
フェアネス文献でよく用いられるデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2021-10-08T20:15:17Z) - A Survey on Bias in Visual Datasets [17.79365832663837]
コンピュータビジョン(CV)は、いくつかのタスクにおいて人間よりも優れた成果を上げている。
CVシステムは、供給されるデータに大きく依存し、そのようなデータ内のバイアスを学習し、増幅することができる。
しかし、現時点では、ビジュアルデータセットのバイアスに関する包括的な調査は行われていない。
論文 参考訳(メタデータ) (2021-07-16T14:16:52Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。