論文の概要: Data Generation using Texture Co-occurrence and Spatial Self-Similarity
for Debiasing
- arxiv url: http://arxiv.org/abs/2110.07920v1
- Date: Fri, 15 Oct 2021 08:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:54:16.544545
- Title: Data Generation using Texture Co-occurrence and Spatial Self-Similarity
for Debiasing
- Title(参考訳): テクスチャ共起と空間的自己相似を利用したデバイアスデータ生成
- Authors: Myeongkyun Kang, Dongkyu Won, Miguel Luna, Kyung Soo Hong, June Hong
Ahn, Sang Hyun Park
- Abstract要約: 本稿では, 反対ラベル付き画像のテクスチャ表現を用いて, 付加画像を明示的に生成する新しいデバイアス手法を提案する。
新たに生成された各画像は、反対ラベルのターゲット画像からテクスチャを転送しながら、ソース画像から類似した空間情報を含む。
本モデルでは,生成画像のテクスチャがターゲットと類似しているか否かを決定するテクスチャ共起損失と,生成画像とソース画像間の空間的詳細がよく保存されているかどうかを決定する空間的自己相似損失とを統合する。
- 参考スコア(独自算出の注目度): 6.976822832216875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classification models trained on biased datasets usually perform poorly on
out-of-distribution samples since biased representations are embedded into the
model. Recently, adversarial learning methods have been proposed to disentangle
biased representations, but it is challenging to discard only the biased
features without altering other relevant information. In this paper, we propose
a novel de-biasing approach that explicitly generates additional images using
texture representations of oppositely labeled images to enlarge the training
dataset and mitigate the effect of biases when training a classifier. Every new
generated image contains similar spatial information from a source image while
transferring textures from a target image of opposite label. Our model
integrates a texture co-occurrence loss that determines whether a generated
image's texture is similar to that of the target, and a spatial self-similarity
loss that determines whether the spatial details between the generated and
source images are well preserved. Both generated and original training images
are further used to train a classifier that is able to avoid learning unknown
bias representations. We employ three distinct artificially designed datasets
with known biases to demonstrate the ability of our method to mitigate bias
information, and report competitive performance over existing state-of-the-art
methods.
- Abstract(参考訳): 偏りのあるデータセットでトレーニングされた分類モデルは、偏りのある表現がモデルに埋め込まれているため、通常、分散サンプルではうまく動作しない。
近年,偏りのある表現を外すための逆学習手法が提案されているが,他の関連情報を変更することなく偏りのある特徴のみを破棄することは困難である。
本稿では,逆ラベル付き画像のテクスチャ表現を用いて,付加画像を明示的に生成し,トレーニングデータセットを拡大し,分類器を訓練する際のバイアス効果を緩和する,新しいデバイアス処理手法を提案する。
新たに生成された各画像は、反対ラベルのターゲット画像からテクスチャを転送しながら、ソース画像から類似した空間情報を含む。
本モデルでは,生成画像のテクスチャがターゲットと類似しているか否かを決定するテクスチャ共起損失と,生成画像とソース画像間の空間的詳細がよく保存されているかどうかを決定する空間的自己相似損失とを統合する。
生成された画像とオリジナルのトレーニング画像の両方が、未知のバイアス表現の学習を回避できる分類器のトレーニングに使用される。
我々は,バイアス情報を緩和する手法の能力を示すために,既知のバイアスを持つ3つの異なる人工的に設計されたデータセットを用い,既存の最先端手法に対する競合性能を報告した。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Mitigating Bias Using Model-Agnostic Data Attribution [2.9868610316099335]
機械学習モデルにおけるバイアスの緩和は、公平性と公平性を保証するための重要な取り組みである。
本稿では, 画素画像の属性を利用して, バイアス属性を含む画像の領域を特定し, 正規化することで, バイアスに対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-08T13:00:56Z) - Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Common-Sense Bias Discovery and Mitigation for Classification Tasks [16.8259488742528]
画像記述に基づいてデータセットの特徴クラスタを抽出するフレームワークを提案する。
解析された特徴と相関は人間に解釈可能であるので、我々はCommon-Sense Bias Discovery (CSBD) という手法を名づける。
実験の結果,2つのベンチマーク画像データセットに対して,複数の分類タスクに新たなバイアスが生じることがわかった。
論文 参考訳(メタデータ) (2024-01-24T03:56:07Z) - Discriminative Class Tokens for Text-to-Image Diffusion Models [107.98436819341592]
自由形式のテキストの表現可能性を利用した非侵襲的な微調整手法を提案する。
本手法は,従来の微調整法と比較して高速で,クラス内の画像の収集を必要としない。
i)標準拡散モデルよりも正確で高品質な生成画像,(ii)低リソース環境でのトレーニングデータの拡張,および(iii)誘導分類器の訓練に使用されるデータ情報を明らかにする。
論文 参考訳(メタデータ) (2023-03-30T05:25:20Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Does enhanced shape bias improve neural network robustness to common
corruptions? [14.607217936005817]
最近の研究は、ImageNetで訓練されたCNNがテクスチャをエンコードする機能に偏っていることを示している。
異なる画像スタイルでトレーニングデータを増強すると、このテクスチャバイアスが減少し、形状バイアスが増加することが示されている。
自然画像や明示的なエッジ情報,スタイライゼーションに基づいて,入力を構成するさまざまな方法に関する体系的な研究を行う。
論文 参考訳(メタデータ) (2021-04-20T07:06:53Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z) - Texture image classification based on a pseudo-parabolic diffusion model [0.0]
提案手法は、確立されたベンチマークテクスチャデータベースの分類と、植物種認識の実践的な課題について検証する。
画像の同種領域内では、擬似放物的演算子が、うる限りノイズの多い詳細を滑らかにすることができることで、優れた性能を大いに正当化することができる。
論文 参考訳(メタデータ) (2020-11-14T00:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。