論文の概要: Exploring Fairness in Pre-trained Visual Transformer based Natural and
GAN Generated Image Detection Systems and Understanding the Impact of Image
Compression in Fairness
- arxiv url: http://arxiv.org/abs/2310.12076v1
- Date: Wed, 18 Oct 2023 16:13:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 15:45:37.893000
- Title: Exploring Fairness in Pre-trained Visual Transformer based Natural and
GAN Generated Image Detection Systems and Understanding the Impact of Image
Compression in Fairness
- Title(参考訳): 学習済み視覚変換器を用いた自然・GAN生成画像検出システムにおけるフェアネスの探索とフェアネスにおける画像圧縮の影響
- Authors: Manjary P. Gangan, Anoop Kadan, and Lajish V L
- Abstract要約: 本研究では,自然画像とGAN生成画像の分類を行うトランスフォーマーに基づく画像法医学アルゴリズムのバイアスについて検討する。
偏見評価コーパスの取得により、性別、人種、感情、交叉領域の偏見を分析する。
画像圧縮に対するアルゴリズムの一般化は、法医学的タスクにおいて考慮すべき重要な要素であるため、モデルバイアスにおける画像圧縮の役割も分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is not only sufficient to construct computational models that can
accurately classify or detect fake images from real images taken from a camera,
but it is also important to ensure whether these computational models are fair
enough or produce biased outcomes that can eventually harm certain social
groups or cause serious security threats. Exploring fairness in forensic
algorithms is an initial step towards correcting these biases. Since visual
transformers are recently being widely used in most image classification based
tasks due to their capability to produce high accuracies, this study tries to
explore bias in the transformer based image forensic algorithms that classify
natural and GAN generated images. By procuring a bias evaluation corpora, this
study analyzes bias in gender, racial, affective, and intersectional domains
using a wide set of individual and pairwise bias evaluation measures. As the
generalizability of the algorithms against image compression is an important
factor to be considered in forensic tasks, this study also analyzes the role of
image compression on model bias. Hence to study the impact of image compression
on model bias, a two phase evaluation setting is followed, where a set of
experiments is carried out in the uncompressed evaluation setting and the other
in the compressed evaluation setting.
- Abstract(参考訳): カメラから撮影した実際の画像から、偽画像の正確な分類や検出が可能な計算モデルを構築するだけでなく、これらの計算モデルが十分に公平であるか、最終的に特定の社会グループを傷つけたり、深刻なセキュリティ脅威を引き起こす可能性のある偏見のある結果を生成することが重要である。
法医学的アルゴリズムにおける公正さの探索は、これらのバイアスを修正するための最初のステップである。
視覚変換器は近年,高精度画像を生成する能力により,画像分類に基づくタスクの多くで広く利用されているため,自然画像とGAN生成画像の分類を行うトランスフォーマに基づく画像法アルゴリズムのバイアスについて検討する。
本研究では, 偏見評価コーパスの取得により, 性別, 人種, 感情, 交叉領域の偏見を多岐にわたる個人的, ペア的偏見評価尺度を用いて分析する。
画像圧縮に対するアルゴリズムの一般化は、法医学的タスクにおいて考慮すべき重要な要素であるため、モデルバイアスにおける画像圧縮の役割も分析する。
これにより、画像圧縮がモデルバイアスに与える影響を調べるために、2相評価設定を踏襲し、非圧縮評価設定では実験セットが、圧縮評価設定では実験セットが実行される。
関連論文リスト
- On the exploitation of DCT statistics for cropping detectors [5.039808715733204]
本研究では,DCT統計を用いた画像分解能分類器について検討し,画像の本来の分解能を検出することを目的とした。
その結果, 収穫画像と収穫画像の区別における分類器の信頼性が示され, 元の分解能の信頼性が評価された。
この研究は、複数の領域にわたる画像解析と使用法を変換する可能性を持つ、この分野における新しい視点を開放する。
論文 参考訳(メタデータ) (2024-03-21T19:05:31Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - A Robust Image Forensic Framework Utilizing Multi-Colorspace Enriched Vision Transformer for Distinguishing Natural and Computer-Generated Images [0.0]
本稿では、リッチな視覚変換器を利用して、自然画像と生成画像の区別を行う頑健な法科学分類手法を提案する。
提案手法は,各クラスの評価において,94.25%の検定精度と有意な性能向上を示す。
この研究は、自然な画像と生成された画像を区別する汎用的でレジリエントなソリューションを提供することにより、画像鑑定の最先端を推し進める。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。