論文の概要: DetoxAI: a Python Toolkit for Debiasing Deep Learning Models in Computer Vision
- arxiv url: http://arxiv.org/abs/2505.05492v1
- Date: Fri, 02 May 2025 22:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:09.982291
- Title: DetoxAI: a Python Toolkit for Debiasing Deep Learning Models in Computer Vision
- Title(参考訳): DetoxAI - コンピュータビジョンにおけるディープラーニングモデルの曖昧化のためのPythonツールキット
- Authors: Ignacy Stępka, Lukasz Sztukiewicz, Michał Wiliński, Jerzy Stefanowski,
- Abstract要約: DetoxAIは、ディープラーニング視覚分類タスクの公平性を改善するライブラリである。
最先端のデバイアスアルゴリズム、公正度メトリクス、可視化ツールを実装している。
本稿では,DetoxAIのモチベーション,設計,ユースケースについて述べる。
- 参考スコア(独自算出の注目度): 2.1936687644617625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While machine learning fairness has made significant progress in recent years, most existing solutions focus on tabular data and are poorly suited for vision-based classification tasks, which rely heavily on deep learning. To bridge this gap, we introduce DetoxAI, an open-source Python library for improving fairness in deep learning vision classifiers through post-hoc debiasing. DetoxAI implements state-of-the-art debiasing algorithms, fairness metrics, and visualization tools. It supports debiasing via interventions in internal representations and includes attribution-based visualization tools and quantitative algorithmic fairness metrics to show how bias is mitigated. This paper presents the motivation, design, and use cases of DetoxAI, demonstrating its tangible value to engineers and researchers.
- Abstract(参考訳): 機械学習の公正性は近年大きく進歩しているが、既存のソリューションのほとんどは表形式のデータに焦点を当てており、ディープラーニングに大きく依存する視覚ベースの分類タスクには適していない。
このギャップを埋めるために、我々はDetoxAIというオープンソースのPythonライブラリを紹介した。
DetoxAIは最先端のデバイアスアルゴリズム、フェアネスメトリクス、可視化ツールを実装している。
内部表現の介入によるデバイアス化をサポートし、帰属に基づく視覚化ツールと、バイアスの緩和方法を示す定量的アルゴリズムの公正度メトリクスを含んでいる。
本稿では,DetoxAIのモチベーション,設計,利用事例について述べる。
関連論文リスト
- A Data-Centric Revisit of Pre-Trained Vision Models for Robot Learning [67.72413262980272]
事前訓練された視覚モデル(PVM)は現代のロボティクスの基本であるが、その最適構成は定かではない。
セマンティック・ボトルネックを導入してオブジェクト中心の表現を誘導する手法であるSlotMIMを開発した。
提案手法は,画像認識,シーン理解,ロボット学習評価において,従来の作業よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-03-10T06:18:31Z) - Investigating the Relationship Between Debiasing and Artifact Removal using Saliency Maps [2.1936687644617625]
コンピュータビジョンタスクにおけるニューラルネットワークのデバイアス化とアーティファクト除去の関係について検討する。
モデル焦点を保護属性から切り離して, モデル焦点を系統的にリダイレクトする手法が成功していることを示す。
論文 参考訳(メタデータ) (2025-02-28T22:42:21Z) - xai_evals : A Framework for Evaluating Post-Hoc Local Explanation Methods [1.747623282473278]
xai_evalsは、説明メソッドの生成、ベンチマーク、評価のためのフレームワークを提供する。
SHAP、LIME、Grad-CAM、Integrated Gradients (IG)、Backtraceといった一般的なテクニックを統合している。
xai_evalsは、機械学習モデルの解釈可能性を高め、透明性とAIシステムの信頼を促進する。
論文 参考訳(メタデータ) (2025-02-05T09:17:48Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Interpretable ML for Imbalanced Data [22.355966235617014]
不均衡なデータは、クラス間の関係が歪んで不明瞭である可能性があるため、ディープ・ネットワークのブラックボックスの性質を合成する。
不均衡なデータの複雑性を調査する既存の手法は、バイナリ分類、浅い学習モデル、低次元データを対象としている。
本稿では,ディープラーニングモデルの利用者がクラスプロトタイプ,サブコンセプト,アウトリアインスタンスを識別し,視覚化し,理解するために利用できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-12-15T11:50:31Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。