論文の概要: Addressing Weak Decision Boundaries in Image Classification by
Leveraging Web Search and Generative Models
- arxiv url: http://arxiv.org/abs/2310.19986v1
- Date: Mon, 30 Oct 2023 20:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 17:35:03.973455
- Title: Addressing Weak Decision Boundaries in Image Classification by
Leveraging Web Search and Generative Models
- Title(参考訳): Web検索と生成モデルを活用した画像分類における弱判定境界の対応
- Authors: Preetam Prabhu Srikar Dammu, Yunhe Feng, Chirag Shah
- Abstract要約: 多くの大きな問題は、機械学習モデルが、表現不足なグループに対して等しくうまく機能しないことである。
本稿では,Web検索と生成モデルのパワーを活用して,識別モデルの欠点を緩和する手法を提案する。
本研究では, 脆弱な個体群に対して本手法を実証するが, 提案手法は幅広い問題や領域に拡張可能である。
- 参考スコア(独自算出の注目度): 14.732229124148596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) technologies are known to be riddled with ethical and
operational problems, however, we are witnessing an increasing thrust by
businesses to deploy them in sensitive applications. One major issue among many
is that ML models do not perform equally well for underrepresented groups. This
puts vulnerable populations in an even disadvantaged and unfavorable position.
We propose an approach that leverages the power of web search and generative
models to alleviate some of the shortcomings of discriminative models. We
demonstrate our method on an image classification problem using ImageNet's
People Subtree subset, and show that it is effective in enhancing robustness
and mitigating bias in certain classes that represent vulnerable populations
(e.g., female doctor of color). Our new method is able to (1) identify weak
decision boundaries for such classes; (2) construct search queries for Google
as well as text for generating images through DALL-E 2 and Stable Diffusion;
and (3) show how these newly captured training samples could alleviate
population bias issue. While still improving the model's overall performance
considerably, we achieve a significant reduction (77.30\%) in the model's
gender accuracy disparity. In addition to these improvements, we observed a
notable enhancement in the classifier's decision boundary, as it is
characterized by fewer weakspots and an increased separation between classes.
Although we showcase our method on vulnerable populations in this study, the
proposed technique is extendable to a wide range of problems and domains.
- Abstract(参考訳): 機械学習(ML)技術は倫理的および運用上の問題から脱却されることが知られているが、企業による機密性の高いアプリケーションへのデプロイの推進が増えているのを目撃している。
多くの主要な問題は、MLモデルが表現不足のグループに対して等しくうまく機能しないことである。
これにより、脆弱な人口は不利で不利な立場に置かれる。
本稿では,web検索と生成モデルの力を活用し,識別モデルの欠点を緩和する手法を提案する。
本研究では,ImageNet の People Subtree サブセットを用いた画像分類問題において,弱い個体群(例えば,女性色医師)を表すクラスにおいて,頑健性の向上とバイアス軽減に有効であることを示す。
提案手法は,(1)弱い判定境界を識別し,(2)DALL-E 2とStable Diffusionによる画像生成のためのテキストだけでなく,Googleの検索クエリを構築すること,(3)新たに取得したトレーニングサンプルが集団バイアス問題を軽減する方法を示す。
モデル全体の性能は依然として大幅に改善されているが、モデルの性別精度の相違は著しく低下している(77.30\%)。
これらの改良に加えて,分類器の判断境界が著しく向上し,弱い点が少なくなり,クラス間の分離が増加するのが特徴である。
本研究では,脆弱な個体群に対して本手法を実証するが,提案手法は幅広い問題や領域に拡張可能である。
関連論文リスト
- Extracting Human Attention through Crowdsourced Patch Labeling [18.947126675569667]
画像分類では、データセットのバイアスから重大な問題が生じる。
このようなバイアスを軽減する1つのアプローチは、モデルが対象物の位置に注意を向けることである。
本稿では,画像から人の注意を捉えるために,クラウドソーシングとAI支援を統合した新しいパッチラベル手法を提案する。
論文 参考訳(メタデータ) (2024-03-22T07:57:27Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Detecting and Mitigating Algorithmic Bias in Binary Classification using
Causal Modeling [0.0]
予測モデルの性別バイアスは0.05レベルで統計的に有意であることを示す。
本研究は,性別バイアス軽減のための因果モデルの有効性を示す。
我々の新しいアプローチは直感的で使いやすく、R の "lavaan" のような既存の統計ソフトウェアツールを使って実装することができる。
論文 参考訳(メタデータ) (2023-10-19T02:21:04Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Spuriosity Rankings: Sorting Data to Measure and Mitigate Biases [62.54519787811138]
本稿では,突発的手がかりに依存したモデルバイアスを簡易かつ効果的に測定・緩和する手法を提案する。
我々は,解釈可能なネットワークの深部神経的特徴をベースとして,それらのクラス内の画像のランク付けを行う。
以上の結果から,素早い特徴依存によるモデルバイアスは,モデルがどのようにトレーニングされたかよりも,モデルがトレーニングされていることの影響がはるかに大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-05T23:15:43Z) - Few-shot Open-set Recognition Using Background as Unknowns [58.04165813493666]
未使用のオープンセット認識は、見知らぬクラスの限られた訓練データしか持たない、目に見える画像と新しい画像の両方を分類することを目的としている。
提案手法は,複数のベースラインより優れるだけでなく,3つのベンチマークで新たな結果が得られた。
論文 参考訳(メタデータ) (2022-07-19T04:19:29Z) - Subverting Fair Image Search with Generative Adversarial Perturbations [14.669429931620689]
本稿では,最先端の公正な画像検索エンジンを攻撃するケーススタディを提案する。
これらの混乱は、公正に再ランク付けされたアルゴリズムが、敵対するサブ人口からの人々を含む画像のランクを不当に向上させようとする。
我々は、我々の攻撃が多数の変数に対して堅牢であること、検索結果の関連性にほとんど影響を与えないこと、そして厳密な脅威モデルの下で成功することを実証した。
論文 参考訳(メタデータ) (2022-05-05T03:05:34Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Knowledge Transfer Based Fine-grained Visual Classification [19.233180617535492]
細かい粒度の視覚分類(FGVC)は、同じカテゴリのサブクラスを区別することを目的とする。
その重要な解決策は、微妙で差別的な領域を採掘することです。
クロスエントロピー損失(CE損失)を損失関数として用いたCNNでは,性能が低かった。
論文 参考訳(メタデータ) (2020-12-21T14:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。