論文の概要: DASH: Visual Analytics for Debiasing Image Classification via
User-Driven Synthetic Data Augmentation
- arxiv url: http://arxiv.org/abs/2209.06357v1
- Date: Wed, 14 Sep 2022 00:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:56:43.613450
- Title: DASH: Visual Analytics for Debiasing Image Classification via
User-Driven Synthetic Data Augmentation
- Title(参考訳): DASH: ユーザ駆動合成データ拡張による画像分類の曖昧化のためのビジュアル分析
- Authors: Bum Chul Kwon, Jungsoo Lee, Chaeyeon Chung, Nyoungwoo Lee, Ho-Jin
Choi, Jaegul Choo
- Abstract要約: 画像分類モデルは、訓練データにおいて、入力特徴と出力クラスとの間の無関係な共起に基づいてクラスを予測することをしばしば学習する。
我々は、望ましくない相関を「データバイアス」と呼び、データバイアスを引き起こす視覚的特徴を「バイアス要因」と呼んでいる。
人間の介入なしにバイアスを自動的に識別し緩和することは困難である。
- 参考スコア(独自算出の注目度): 27.780618650580923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image classification models often learn to predict a class based on
irrelevant co-occurrences between input features and an output class in
training data. We call the unwanted correlations "data biases," and the visual
features causing data biases "bias factors." It is challenging to identify and
mitigate biases automatically without human intervention. Therefore, we
conducted a design study to find a human-in-the-loop solution. First, we
identified user tasks that capture the bias mitigation process for image
classification models with three experts. Then, to support the tasks, we
developed a visual analytics system called DASH that allows users to visually
identify bias factors, to iteratively generate synthetic images using a
state-of-the-art image-to-image translation model, and to supervise the model
training process for improving the classification accuracy. Our quantitative
evaluation and qualitative study with ten participants demonstrate the
usefulness of DASH and provide lessons for future work.
- Abstract(参考訳): 画像分類モデルは、訓練データにおける入力特徴と出力クラスの間の無関係な共起に基づいてクラスを予測することをしばしば学習する。
我々は不必要な相関を「データバイアス」と呼び、データバイアスの原因となる視覚的特徴を「バイアス要因」と呼ぶ。
人的介入なしに自動的にバイアスを識別し緩和することは困難である。
そこで我々は,ループ内ヒューマンソリューションを探索する設計研究を行った。
まず,3人の専門家による画像分類モデルのバイアス緩和過程を捉えるユーザタスクを特定した。
そこで我々は,そのタスクを支援するため,視覚分析システムdashを開発し,バイアス要因を視覚的に識別し,最先端の画像から画像への翻訳モデルを用いて合成画像を繰り返し生成し,分類精度を向上させるためのモデルトレーニングプロセスを監督する。
10名の被験者による定量的評価と質的研究は,DASHの有用性を示し,今後の研究の教訓を提供する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Common-Sense Bias Discovery and Mitigation for Classification Tasks [16.8259488742528]
画像記述に基づいてデータセットの特徴クラスタを抽出するフレームワークを提案する。
解析された特徴と相関は人間に解釈可能であるので、我々はCommon-Sense Bias Discovery (CSBD) という手法を名づける。
実験の結果,2つのベンチマーク画像データセットに対して,複数の分類タスクに新たなバイアスが生じることがわかった。
論文 参考訳(メタデータ) (2024-01-24T03:56:07Z) - Improving Fairness in Image Classification via Sketching [14.154930352612926]
ディープニューラルネットワーク(DNN)は、異なるサブ人口からトレーニングデータが収集された場合、不公平な予測を行う傾向がある。
我々はこの現象に対処するためにスケッチを使うことを提案する。
本手法は,一般的なシーンデータセットと医療シーンデータセットの両方に関する広範な実験を通じて評価する。
論文 参考訳(メタデータ) (2022-10-31T22:26:32Z) - Ambiguous Images With Human Judgments for Robust Visual Event
Classification [34.62731821199598]
我々はあいまいな画像のデータセットを作成し、それらをビデオから抽出したノイズの多い画像の集合であるSQUID-E(Squidy)を作成する。
すべての画像は、地上の真理値でアノテートされ、テストセットは、人間の不確実性判定でアノテートされる。
このデータセットを用いて、視覚タスクにおける人間の不確実性を特徴づけ、既存の視覚事象分類モデルを評価する。
論文 参考訳(メタデータ) (2022-10-06T17:52:20Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - A Relational Model for One-Shot Classification [80.77724423309184]
インダクティブバイアスを組み込んだディープラーニングモデルは,広範なデータ拡張に頼ることなく,サンプル効率のよい学習にメリットをもたらすことを示す。
提案するワンショット分類モデルは,一対の入力を局所的および対的注意の形で関係マッチングする。
論文 参考訳(メタデータ) (2021-11-08T07:53:12Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Visual Recognition with Deep Learning from Biased Image Datasets [6.10183951877597]
視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
論文 参考訳(メタデータ) (2021-09-06T10:56:58Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。