論文の概要: Exploring Fairness in Pre-trained Visual Transformer based Natural and
GAN Generated Image Detection Systems and Understanding the Impact of Image
Compression in Fairness
- arxiv url: http://arxiv.org/abs/2310.12076v1
- Date: Wed, 18 Oct 2023 16:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 15:45:37.893000
- Title: Exploring Fairness in Pre-trained Visual Transformer based Natural and
GAN Generated Image Detection Systems and Understanding the Impact of Image
Compression in Fairness
- Title(参考訳): 学習済み視覚変換器を用いた自然・GAN生成画像検出システムにおけるフェアネスの探索とフェアネスにおける画像圧縮の影響
- Authors: Manjary P. Gangan, Anoop Kadan, and Lajish V L
- Abstract要約: 本研究では,自然画像とGAN生成画像の分類を行うトランスフォーマーに基づく画像法医学アルゴリズムのバイアスについて検討する。
偏見評価コーパスの取得により、性別、人種、感情、交叉領域の偏見を分析する。
画像圧縮に対するアルゴリズムの一般化は、法医学的タスクにおいて考慮すべき重要な要素であるため、モデルバイアスにおける画像圧縮の役割も分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is not only sufficient to construct computational models that can
accurately classify or detect fake images from real images taken from a camera,
but it is also important to ensure whether these computational models are fair
enough or produce biased outcomes that can eventually harm certain social
groups or cause serious security threats. Exploring fairness in forensic
algorithms is an initial step towards correcting these biases. Since visual
transformers are recently being widely used in most image classification based
tasks due to their capability to produce high accuracies, this study tries to
explore bias in the transformer based image forensic algorithms that classify
natural and GAN generated images. By procuring a bias evaluation corpora, this
study analyzes bias in gender, racial, affective, and intersectional domains
using a wide set of individual and pairwise bias evaluation measures. As the
generalizability of the algorithms against image compression is an important
factor to be considered in forensic tasks, this study also analyzes the role of
image compression on model bias. Hence to study the impact of image compression
on model bias, a two phase evaluation setting is followed, where a set of
experiments is carried out in the uncompressed evaluation setting and the other
in the compressed evaluation setting.
- Abstract(参考訳): カメラから撮影した実際の画像から、偽画像の正確な分類や検出が可能な計算モデルを構築するだけでなく、これらの計算モデルが十分に公平であるか、最終的に特定の社会グループを傷つけたり、深刻なセキュリティ脅威を引き起こす可能性のある偏見のある結果を生成することが重要である。
法医学的アルゴリズムにおける公正さの探索は、これらのバイアスを修正するための最初のステップである。
視覚変換器は近年,高精度画像を生成する能力により,画像分類に基づくタスクの多くで広く利用されているため,自然画像とGAN生成画像の分類を行うトランスフォーマに基づく画像法アルゴリズムのバイアスについて検討する。
本研究では, 偏見評価コーパスの取得により, 性別, 人種, 感情, 交叉領域の偏見を多岐にわたる個人的, ペア的偏見評価尺度を用いて分析する。
画像圧縮に対するアルゴリズムの一般化は、法医学的タスクにおいて考慮すべき重要な要素であるため、モデルバイアスにおける画像圧縮の役割も分析する。
これにより、画像圧縮がモデルバイアスに与える影響を調べるために、2相評価設定を踏襲し、非圧縮評価設定では実験セットが、圧縮評価設定では実験セットが実行される。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Unsupervised Decomposition Networks for Bias Field Correction in MR
Image [8.455313304871876]
バイアスのないMR画像を得るための教師なし分解ネットワークを提案する。
ネットワークは、各クラスに属する各画素の確率を予測するセグメンテーション部と、バイアス場を算出する推定部とから構成される。
ロス関数はバイアス場の滑らかさを導入し、一貫性内制約の下で異なるクラス間のソフトな関係を構築する。
論文 参考訳(メタデータ) (2023-07-30T12:58:59Z) - PIQI: Perceptual Image Quality Index based on Ensemble of Gaussian
Process Regression [2.9412539021452715]
デジタル画像の品質を評価するためにPIQI(Perceptual Image Quality Index)を提案する。
PIQIの性能は6つのベンチマークデータベースでチェックされ、12の最先端の手法と比較される。
論文 参考訳(メタデータ) (2023-05-16T06:44:17Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Just Noticeable Difference for Machine Perception and Generation of
Regularized Adversarial Images with Minimal Perturbation [8.920717493647121]
人間の知覚のジャスト通知差(JND)の概念に触発された機械知覚の尺度を紹介します。
本稿では,機械学習モデルが偽ラベルを出力することで画像の変化を検出するまで,画像を付加雑音で反復的に歪曲する逆画像生成アルゴリズムを提案する。
CIFAR10、ImageNet、MS COCOデータセット上で、アルゴリズムが生成する対向画像の定性的および定量的評価を行います。
論文 参考訳(メタデータ) (2021-02-16T11:01:55Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。