論文の概要: Identifying bias in CNN image classification using image scrambling and transforms
- arxiv url: http://arxiv.org/abs/2510.10383v1
- Date: Sun, 12 Oct 2025 00:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.915484
- Title: Identifying bias in CNN image classification using image scrambling and transforms
- Title(参考訳): 画像スクランブルと変換を用いたCNN画像分類におけるバイアスの同定
- Authors: Sai Teja Erukude,
- Abstract要約: CNNは、より優れた分類率とユーザフレンドリーなライブラリの可用性のために、ほとんどのマシンビジョン問題の主要な選択肢として一般的である。
ここでは、そのような隠れバイアスの例について論じ、それらを特定するための手法を提案する。
また、CNNが無関係の機能から学習するかどうかについても検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: CNNs are now prevalent as the primary choice for most machine vision problems due to their superior rate of classification and the availability of user-friendly libraries. These networks effortlessly identify and select features in a non-intuitive data-driven manner, making it difficult to determine which features were most influential. That leads to a ``black box", where users cannot know how the image data are analyzed but rely on empirical results. Therefore the decision-making process can be biased by background information that is difficult to detect. Here we discuss examples of such hidden biases and propose techniques for identifying them, methods to distinguish between contextual information and background noise, and explore whether CNNs learn from irrelevant features. One effective approach to identify dataset bias is to classify blank background parts of the images. However, in some situations a blank background in the images is not available, making it more difficult to separate the foreground information from the blank background. Such parts of the image can also be considered contextual learning, not necessarily bias. To overcome this, we propose two approaches that were tested on six different datasets, including natural, synthetic, and hybrid datasets. The first method involves dividing images into smaller, non-overlapping tiles of various sizes, which are then shuffled randomly, making classification more challenging. The second method involves the application of several image transforms, including Fourier, Wavelet transforms, and Median filter, and their combinations. These transforms help recover background noise information used by CNN to classify images. Results indicate that this method can effectively distinguish between contextual information and background noise, and alert on the presence of background noise even without the need to use background information.
- Abstract(参考訳): CNNは、より優れた分類率とユーザフレンドリーなライブラリの可用性のために、ほとんどのマシンビジョン問題の主要な選択肢として普及している。
これらのネットワークは、直感的でないデータ駆動方式で機能を特定し、選択する。
これは‘black box’につながり、画像データがどのように分析されるかは理解できないが、経験的な結果に頼っている。
したがって、意思決定プロセスは、検出が難しい背景情報によってバイアスを受けることができる。
本稿では,このような隠れバイアスの例について論じ,それらを特定する手法,文脈情報と背景雑音を区別する方法,CNNが無関係な特徴から学習するかどうかを考察する。
データセットバイアスを特定する効果的なアプローチの1つは、画像の空白部分の分類である。
しかし、画像の空白背景が利用できない場合もあり、背景情報を空白背景から切り離すことがより困難になる。
画像のそのような部分は、必ずしもバイアスではなく、文脈学習と見なすこともできる。
これを解決するために、自然、合成、ハイブリッドのデータセットを含む6つの異なるデータセットでテストされた2つのアプローチを提案する。
最初の方法は、画像をさまざまなサイズの小さな重複しないタイルに分割し、ランダムにシャッフルし、分類をより困難にする。
第2の方法は、フーリエ、ウェーブレット変換、メディアフィルタなど、いくつかの画像変換とその組み合わせの適用である。
これらの変換は、CNNが画像の分類に使用している背景ノイズ情報を復元するのに役立つ。
本手法は,背景雑音と文脈情報とを効果的に識別し,背景雑音の有無を,背景情報を用いなくても警告することができることを示す。
関連論文リスト
- Identifying Bias in Deep Neural Networks Using Image Transforms [0.0]
CNNは過去20年で最もよく使われている計算ツールの1つになっている。
CNNの主な欠点の1つは、イメージデータがどのように分析されているかをユーザが必ずしも知ることができないブラックボックスとして動作することだ。
これはニューラルネットワークのパフォーマンス評価に影響を与えるが、識別が難しい隠れバイアスにつながる可能性がある。
論文 参考訳(メタデータ) (2024-12-17T16:51:44Z) - Targeted Background Removal Creates Interpretable Feature Visualizations [0.0]
我々は、背景除去技法を堅牢なトレーニングの形式として利用することにより、ネットワークはより人間に認識可能な特徴を学習せざるを得ない、と論じる。
この仮説を検証するために4つの異なる訓練方法が用いられた。
特徴視覚化の結果,背景除去画像はベースラインモデルよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2023-06-22T19:39:06Z) - Invariant Learning via Diffusion Dreamed Distribution Shifts [121.71383835729848]
拡散ドリーム分布シフト(D3S)と呼ばれるデータセットを提案する。
D3Sは、テキストプロンプトを用いてStableDiffusionを通じて生成された合成画像と、サンプルフォアグラウンドイメージを背景テンプレートイメージにペーストした画像ガイドから構成される。
拡散モデルの驚くべきフォトリアリズムのため、我々の画像は以前の合成データセットよりも自然な画像に近い。
論文 参考訳(メタデータ) (2022-11-18T17:07:43Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - On Background Bias in Deep Metric Learning [5.368313160283353]
画像背景がDeep Metric Learningモデルに与える影響を分析する。
トレーニング中の画像の背景をランダムな背景画像に置き換えることでこの問題が軽減されることを示す。
論文 参考訳(メタデータ) (2022-10-04T13:57:39Z) - Comparative Analysis of Non-Blind Deblurring Methods for Noisy Blurred
Images [0.0]
Weener deconvolution, Lucy-Richardson deconvolution, and regularized deconvolution were analyzed for noisy image with salt-and-pepper noise。
その結果,ノイズ画像の除去に最適な手法が得られた。
論文 参考訳(メタデータ) (2022-05-06T20:07:29Z) - Learning to See by Looking at Noise [87.12788334473295]
簡単なランダムなプロセスから画像を生成する一連の画像生成モデルについて検討する。
これらは、対照的な損失を伴う視覚表現学習者のトレーニングデータとして使用される。
以上の結果から,実データの構造的特性を捉えることはノイズにとって重要であるが,現実的ではないプロセスでも良好な性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2021-06-10T17:56:46Z) - Deep Universal Blind Image Denoising [26.77629755630694]
深層畳み込みニューラルネットワーク(cnns)は、大規模な合成データセットを組み込むことで、画像のノイズ化に大きな成功を収めている。
ベイズ的視点に基づく両手法の利点を生かしたCNNに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-01-18T11:49:21Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。