論文の概要: Measuring directional bias amplification in image captions using predictability
- arxiv url: http://arxiv.org/abs/2503.07878v2
- Date: Wed, 12 Mar 2025 02:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 12:14:46.103872
- Title: Measuring directional bias amplification in image captions using predictability
- Title(参考訳): 予測可能性を用いた画像キャプションの指向性バイアス増幅の測定
- Authors: Rahul Nair, Bhanu Tokas, Neel Shah, Hannah Kerner,
- Abstract要約: MLデータセットのバイアス増幅を測定するために,DPAC(Directional Predictability Amplification in Captioning)を提案する。
DPACはキャプションの方向バイアス増幅を測定し、データセットバイアスをよりよく推定し、攻撃モデルに敏感でない。
COCOキャプションデータセットを用いた実験は, DPACがキャプションのバイアス増幅測定において最も信頼性の高い指標であることを示す。
- 参考スコア(独自算出の注目度): 13.041091740013808
- License:
- Abstract: When we train models on biased ML datasets, they not only learn these biases but can inflate them at test time - a phenomenon called bias amplification. To measure bias amplification in ML datasets, many co-occurrence-based metrics have been proposed. Co-occurrence-based metrics are effective in measuring bias amplification in simple problems like image classification. However, these metrics are ineffective for complex problems like image captioning as they cannot capture the semantics of a caption. To measure bias amplification in captions, prior work introduced a predictability-based metric called Leakage in Captioning (LIC). While LIC captures the semantics and context of captions, it has limitations. LIC cannot identify the direction in which bias is amplified, poorly estimates dataset bias due to a weak vocabulary substitution strategy, and is highly sensitive to attacker models (a hyperparameter in predictability-based metrics). To overcome these issues, we propose Directional Predictability Amplification in Captioning (DPAC). DPAC measures directional bias amplification in captions, provides a better estimate of dataset bias using an improved substitution strategy, and is less sensitive to attacker models. Our experiments on the COCO captioning dataset show how DPAC is the most reliable metric to measure bias amplification in captions.
- Abstract(参考訳): バイアス付きMLデータセットでモデルをトレーニングする場合、これらのバイアスを学習するだけでなく、テスト時にバイアスをインフレーションできる — バイアス増幅と呼ばれる現象だ。
機械学習データセットのバイアス増幅を測定するために、多くの共起型メトリクスが提案されている。
共起性に基づくメトリクスは、画像分類のような単純な問題におけるバイアス増幅を測定するのに有効である。
しかし、これらの指標は、キャプションのセマンティクスをキャプチャできないため、画像キャプションのような複雑な問題に対して効果がない。
キャプションにおけるバイアス増幅を測定するために、事前の研究はLeakage in Captioning (lic)と呼ばれる予測可能性に基づくメトリクスを導入した。
licはキャプションの意味とコンテキストをキャプチャするが、制限がある。
licは、バイアスが増幅される方向を特定することができず、弱い語彙置換戦略によるデータセットバイアスの予測が不十分であり、アタッカーモデル(予測可能性に基づくメトリクスのハイパーパラメータ)に非常に敏感である。
これらの問題を克服するために,DPAC(Directional Predictability Amplification in Captioning)を提案する。
DPACはキャプションの方向バイアス増幅を測定し、改良された置換戦略を用いてデータセットバイアスをよりよく推定し、攻撃モデルにはあまり敏感ではない。
COCOキャプションデータセットを用いた実験は, DPACがキャプションのバイアス増幅測定において最も信頼性の高い指標であることを示す。
関連論文リスト
- Making Bias Amplification in Balanced Datasets Directional and Interpretable [13.38327450225136]
我々は、方向予測可能性増幅(DPA)と呼ばれる新しい予測可能性に基づくメトリクスを提案する。
DPAは、バランスの取れたデータセットであっても、方向バイアス増幅を測定する。
実験の結果,DPAは指向性バイアス増幅の測定に有効な指標であることがわかった。
論文 参考訳(メタデータ) (2024-12-15T05:32:54Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Balancing the Picture: Debiasing Vision-Language Datasets with Synthetic
Contrast Sets [52.77024349608834]
視覚言語モデルは、インターネットから未計算の画像テキストペアの事前トレーニング中に学んだ社会的バイアスを永続し、増幅することができる。
COCO Captionsは、背景コンテキストとその場にいる人々の性別間のバイアスを評価するために最も一般的に使用されるデータセットである。
本研究では,COCOデータセットを男女バランスの取れたコントラストセットで拡張する新しいデータセットデバイアスパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-24T17:59:18Z) - ImageCaptioner$^2$: Image Captioner for Image Captioning Bias
Amplification Assessment [30.71835197717301]
画像キャプションに$ImageCaptioner2$と呼ばれる新しいバイアス評価指標を導入する。
モデルやデータの絶対バイアスを測定する代わりに、$ImageCaptioner2$はモデルによって導入されたバイアスにもっと注意を払う。
さらに、生成したキャプションのバイアスをプロンプトベースの画像キャプションとして測定するための定式化を設計する。
論文 参考訳(メタデータ) (2023-04-10T21:40:46Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - ADEPT: A DEbiasing PrompT Framework [49.582497203415855]
ファインタニングは文脈化された単語の埋め込みを曖昧にするための応用手法である。
意味的な意味を持つ個別のプロンプトは、タスクを乱すのに有効であることが示されている。
本稿では, PLM をデバイアス化する方法であるADEPT を提案し, バイアス除去と表現能力の確保の微妙なバランスを維持しながら, 即時チューニングによる PLM のデバイアス化手法を提案する。
論文 参考訳(メタデータ) (2022-11-10T08:41:40Z) - Men Also Do Laundry: Multi-Attribute Bias Amplification [2.492300648514129]
コンピュータビジョンシステムは再生だけでなく、有害な社会的バイアスを増幅している。
マルチ属性バイアス増幅という新しい指標を提案する。
提案手法は,COCOおよびImsituデータセットにおける性別バイアス増幅の分析を通じて検証する。
論文 参考訳(メタデータ) (2022-10-21T12:50:15Z) - Quantifying Societal Bias Amplification in Image Captioning [24.075869811508404]
画像キャプションでは,保護属性の正しい予測に焦点を合わせるだけでは十分ではない。
従来の画像キャプションモデルと最先端画像キャプションモデルについて広範な評価を行い、保護属性予測のみに着目して、バイアス緩和モデルが予想外にバイアスを増幅していることに驚きを感じた。
論文 参考訳(メタデータ) (2022-03-29T09:42:11Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Directional Bias Amplification [21.482317675176443]
バイアス増幅(bias amplification)は、モデルがトレーニングしたデータに存在するバイアスを増幅する傾向である。
バイアス増幅を測定するためのメトリックは、Zhao et alによるセミナル作品に導入されました。
バイアス増幅測定のための新しい分離指標である$textbiasamp_rightarrow$(方向バイアス増幅)を紹介し分析する。
論文 参考訳(メタデータ) (2021-02-24T22:54:21Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。