論文の概要: BOOST: Out-of-Distribution-Informed Adaptive Sampling for Bias Mitigation in Stylistic Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2507.07134v1
- Date: Tue, 08 Jul 2025 22:18:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.135128
- Title: BOOST: Out-of-Distribution-Informed Adaptive Sampling for Bias Mitigation in Stylistic Convolutional Neural Networks
- Title(参考訳): BOOST: 安定的畳み込みニューラルネットワークにおけるバイアス除去のためのアウト・オブ・ディストリビューション・インフォームド適応サンプリング
- Authors: Mridula Vijendran, Shuang Chen, Jingjing Deng, Hubert P. H. Shum,
- Abstract要約: AIにおけるバイアスは、分類を描く上で重要な課題を示しており、これらのシステムがアートキュレーションや修復といったタスクにますます統合されるにつれて、より深刻なものになっている。
BOOSTと呼ばれる新しいOODインフォームドモデルバイアス適応サンプリング法を提案する。
提案したKaoKoreデータセットとPACSデータセットに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 8.960561031294727
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The pervasive issue of bias in AI presents a significant challenge to painting classification, and is getting more serious as these systems become increasingly integrated into tasks like art curation and restoration. Biases, often arising from imbalanced datasets where certain artistic styles dominate, compromise the fairness and accuracy of model predictions, i.e., classifiers are less accurate on rarely seen paintings. While prior research has made strides in improving classification performance, it has largely overlooked the critical need to address these underlying biases, that is, when dealing with out-of-distribution (OOD) data. Our insight highlights the necessity of a more robust approach to bias mitigation in AI models for art classification on biased training data. We propose a novel OOD-informed model bias adaptive sampling method called BOOST (Bias-Oriented OOD Sampling and Tuning). It addresses these challenges by dynamically adjusting temperature scaling and sampling probabilities, thereby promoting a more equitable representation of all classes. We evaluate our proposed approach to the KaoKore and PACS datasets, focusing on the model's ability to reduce class-wise bias. We further propose a new metric, Same-Dataset OOD Detection Score (SODC), designed to assess class-wise separation and per-class bias reduction. Our method demonstrates the ability to balance high performance with fairness, making it a robust solution for unbiasing AI models in the art domain.
- Abstract(参考訳): AIにおける偏見の広範にわたる問題は、分類を描く上で重要な課題を示しており、これらのシステムがアートキュレーションや修復といったタスクにますます統合されるにつれて、さらに深刻なものになっている。
バイアスは、ある芸術様式が支配する不均衡なデータセットから生じることが多く、モデル予測の公平さと正確さを損なう。
以前の研究では、分類性能の改善に努力してきたが、その根底にあるバイアス、すなわち、アウト・オブ・ディストリビューション(OOD)データを扱う際には、これらに対処する必要がほとんど見過ごされている。
私たちの洞察は、バイアス付きトレーニングデータに基づくアート分類のためのAIモデルにおいて、より堅牢なバイアス緩和アプローチの必要性を強調します。
本稿では,BOOST (Bias-Oriented OOD Smpling and Tuning) と呼ばれる新しいOODインフォームドモデルバイアス適応サンプリング手法を提案する。
温度スケーリングとサンプリング確率を動的に調整し、全てのクラスのより公平な表現を促進することで、これらの課題に対処する。
提案したKaoKoreデータセットとPACSデータセットに対するアプローチを評価する。
さらに、クラスごとの分離とクラスごとのバイアス低減を評価するために、SODC(Same-Dataset OOD Detection Score)という新しい指標を提案する。
提案手法は,ハイパフォーマンスとフェアネスのバランスをとる能力を示し,アート領域におけるAIモデルを曖昧にするための堅牢なソリューションである。
関連論文リスト
- Detecting Prefix Bias in LLM-based Reward Models [4.596249232904721]
選好データセットに基づいて訓練された報酬モデルにおいて,プレフィックスバイアスを検知し,評価するための新しい手法を提案する。
これらの指標を活用して、人種と性別の異なる嗜好モデルにおける大きなバイアスを明らかにします。
本研究は,公正かつ信頼性の高い報酬モデルを開発する上で,バイアス対応データセットの設計と評価を重要視するものである。
論文 参考訳(メタデータ) (2025-05-13T21:50:03Z) - Understanding trade-offs in classifier bias with quality-diversity optimization: an application to talent management [2.334978724544296]
公正なAIモデルを開発する上での大きな課題は、そのようなモデルをトレーニングする上で利用可能なデータのバイアスにある。
本稿では,データセットに固有のバイアスを可視化し,公平性と正確性の間の潜在的なトレードオフを理解する方法を提案する。
論文 参考訳(メタデータ) (2024-11-25T22:14:02Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。