論文の概要: Visual Recognition with Deep Learning from Biased Image Datasets
- arxiv url: http://arxiv.org/abs/2109.02357v1
- Date: Mon, 6 Sep 2021 10:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:01:20.639323
- Title: Visual Recognition with Deep Learning from Biased Image Datasets
- Title(参考訳): バイアス画像データセットからの深層学習による視覚認識
- Authors: Robin Vogel, Stephan Cl\'emen\c{c}on, Pierre Laforgue
- Abstract要約: 視覚認知の文脈において、バイアスモデルがどのように治療問題に適用できるかを示す。
作業中のバイアス機構に関する(近似的な)知識に基づいて、我々のアプローチは観察を再重み付けする。
本稿では,画像データベース間で共有される低次元画像表現を提案する。
- 参考スコア(独自算出の注目度): 6.10183951877597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In practice, and more especially when training deep neural networks, visual
recognition rules are often learned based on various sources of information. On
the other hand, the recent deployment of facial recognition systems with uneven
predictive performances on different population segments highlights the
representativeness issues possibly induced by a naive aggregation of image
datasets. Indeed, sampling bias does not vanish simply by considering larger
datasets, and ignoring its impact may completely jeopardize the generalization
capacity of the learned prediction rules. In this paper, we show how biasing
models, originally introduced for nonparametric estimation in (Gill et al.,
1988), and recently revisited from the perspective of statistical learning
theory in (Laforgue and Cl\'emen\c{c}on, 2019), can be applied to remedy these
problems in the context of visual recognition. Based on the (approximate)
knowledge of the biasing mechanisms at work, our approach consists in
reweighting the observations, so as to form a nearly debiased estimator of the
target distribution. One key condition for our method to be theoretically valid
is that the supports of the distributions generating the biased datasets at
disposal must overlap, and cover the support of the target distribution. In
order to meet this requirement in practice, we propose to use a low dimensional
image representation, shared across the image databases. Finally, we provide
numerical experiments highlighting the relevance of our approach whenever the
biasing functions are appropriately chosen.
- Abstract(参考訳): 実際には、特にディープニューラルネットワークのトレーニングでは、様々な情報ソースに基づいて視覚認識規則がしばしば学習される。
一方,近年,異なる個体群に不均一な予測性能を有する顔認識システムの開発では,画像データセットのナイーブな集約によって引き起こされる可能性のある代表性の問題が浮き彫りになっている。
実際、サンプリングバイアスは、単により大きなデータセットを考慮すれば消滅せず、その影響を無視して、学習した予測ルールの一般化能力を完全に損なう可能性がある。
本稿では,非パラメトリック推定(gill et al., 1988)で導入され,最近,統計的学習理論(laforgue and cl\'emen\c{c}on, 2019)の観点から再検討されたバイアスモデルを用いて,これらの問題を視覚認識の文脈で解決できることを示す。
作業中のバイアス機構の(近似的な)知識に基づいて、我々のアプローチは観測を再重み付けすることで、目標分布のほとんど偏りのない推定器を形成する。
提案手法が理論的に有効であることの1つの重要な条件は, 処理時に偏りのあるデータセットを生成する分布の支持が重なり, 対象分布の支持をカバーすることである。
この要件を実際に満たすために,画像データベース間で共有される低次元画像表現を使うことを提案する。
最後に,バイアス関数が適切に選択された場合のアプローチの妥当性を強調する数値実験を行った。
関連論文リスト
- Looking at Model Debiasing through the Lens of Anomaly Detection [11.113718994341733]
ディープニューラルネットワークはデータのバイアスに敏感である。
本稿では,異常検出に基づく新しいバイアス同定手法を提案する。
合成および実際のベンチマークデータセット上で、最先端のパフォーマンスに到達する。
論文 参考訳(メタデータ) (2024-07-24T17:30:21Z) - Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - DASH: Visual Analytics for Debiasing Image Classification via
User-Driven Synthetic Data Augmentation [27.780618650580923]
画像分類モデルは、訓練データにおいて、入力特徴と出力クラスとの間の無関係な共起に基づいてクラスを予測することをしばしば学習する。
我々は、望ましくない相関を「データバイアス」と呼び、データバイアスを引き起こす視覚的特徴を「バイアス要因」と呼んでいる。
人間の介入なしにバイアスを自動的に識別し緩和することは困難である。
論文 参考訳(メタデータ) (2022-09-14T00:44:41Z) - Masked prediction tasks: a parameter identifiability view [49.533046139235466]
マスク付きトークンの予測に広く用いられている自己教師型学習手法に着目する。
いくつかの予測タスクは識別可能性をもたらすが、他のタスクはそうではない。
論文 参考訳(メタデータ) (2022-02-18T17:09:32Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。