論文の概要: Towards Exploring Fairness in Visual Transformer based Natural and GAN Image Detection Systems
- arxiv url: http://arxiv.org/abs/2310.12076v2
- Date: Sat, 16 Nov 2024 17:40:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:29:29.891507
- Title: Towards Exploring Fairness in Visual Transformer based Natural and GAN Image Detection Systems
- Title(参考訳): 視覚変換器を用いた自然・GAN画像検出システムにおける公正性の探索に向けて
- Authors: Manjary P. Gangan, Anoop Kadan, Lajish V L,
- Abstract要約: 本研究では、自然画像とGAN画像を分類する視覚変換器に基づく画像法科学アルゴリズムのバイアスについて検討する。
提案研究は, 性別, 人種, 感情, 交叉領域の偏見を解析するために, 偏見評価コーパスを取得する。
また、画像圧縮がモデルバイアスに与える影響を分析する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Image forensics research has recently witnessed a lot of advancements towards developing computational models capable of accurately detecting natural images captured by cameras and GAN generated images. However, it is also important to ensure whether these computational models are fair enough and do not produce biased outcomes that could eventually harm certain societal groups or cause serious security threats. Exploring fairness in image forensic algorithms is an initial step towards mitigating these biases. This study explores bias in visual transformer based image forensic algorithms that classify natural and GAN images, since visual transformers are recently being widely used in image classification based tasks, including in the area of image forensics. The proposed study procures bias evaluation corpora to analyze bias in gender, racial, affective, and intersectional domains using a wide set of individual and pairwise bias evaluation measures. Since the robustness of the algorithms against image compression is an important factor to be considered in forensic tasks, this study also analyzes the impact of image compression on model bias. Hence to study the impact of image compression on model bias, a two-phase evaluation setting is followed, where the experiments are carried out in uncompressed and compressed evaluation settings. The study could identify bias existences in the visual transformer based models distinguishing natural and GAN images, and also observes that image compression impacts model biases, predominantly amplifying the presence of biases in class GAN predictions.
- Abstract(参考訳): 画像法医学の研究は、最近、カメラやGAN生成画像によって捉えられた自然な画像を正確に検出できる計算モデルの開発に向けて、多くの進歩を目撃した。
しかし、これらの計算モデルが十分に公平であり、最終的に特定の社会的グループを傷つけたり、深刻なセキュリティ脅威を引き起こすような偏見のある結果が得られないかどうかを確認することも重要である。
画像法医学アルゴリズムにおける公正性の探索は、これらのバイアスを軽減するための最初のステップである。
本研究は, 自然画像とGAN画像の分類を行う視覚変換器に基づく画像鑑定アルゴリズムのバイアスについて検討する。
本研究は, 偏見評価コーパスを用いて, 性別, 人種, 感情, 交叉領域の偏見分析を行う。
画像圧縮に対するアルゴリズムの堅牢性は、法医学的タスクにおいて考慮すべき重要な要素であるため、この研究では、画像圧縮がモデルバイアスに与える影響も分析する。
したがって、画像圧縮がモデルバイアスに与える影響を調べるために、2相評価設定を踏襲し、非圧縮圧縮圧縮評価設定で実験を行う。
また、画像圧縮がモデルバイアスに影響を与え、主にクラスGAN予測におけるバイアスの存在を増幅することを示した。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - On the exploitation of DCT statistics for cropping detectors [5.039808715733204]
本研究では,DCT統計を用いた画像分解能分類器について検討し,画像の本来の分解能を検出することを目的とした。
その結果, 収穫画像と収穫画像の区別における分類器の信頼性が示され, 元の分解能の信頼性が評価された。
この研究は、複数の領域にわたる画像解析と使用法を変換する可能性を持つ、この分野における新しい視点を開放する。
論文 参考訳(メタデータ) (2024-03-21T19:05:31Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - A Robust Image Forensic Framework Utilizing Multi-Colorspace Enriched Vision Transformer for Distinguishing Natural and Computer-Generated Images [0.0]
本稿では、リッチな視覚変換器を利用して、自然画像と生成画像の区別を行う頑健な法科学分類手法を提案する。
提案手法は,各クラスの評価において,94.25%の検定精度と有意な性能向上を示す。
この研究は、自然な画像と生成された画像を区別する汎用的でレジリエントなソリューションを提供することにより、画像鑑定の最先端を推し進める。
論文 参考訳(メタデータ) (2023-08-14T17:11:17Z) - Unravelling the Effect of Image Distortions for Biased Prediction of
Pre-trained Face Recognition Models [86.79402670904338]
画像歪みの存在下での4つの最先端深層顔認識モデルの性能評価を行った。
我々は、画像歪みが、異なるサブグループ間でのモデルの性能ギャップと関係していることを観察した。
論文 参考訳(メタデータ) (2021-08-14T16:49:05Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。