論文の概要: humancompatible.detect: a Python Toolkit for Detecting Bias in AI Models
- arxiv url: http://arxiv.org/abs/2509.24340v1
- Date: Mon, 29 Sep 2025 06:43:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.789496
- Title: humancompatible.detect: a Python Toolkit for Detecting Bias in AI Models
- Title(参考訳): Human compatible.detect: AIモデルでバイアスを検出するPythonツールキット
- Authors: German M. Matilla, Jiri Nemecek, Illia Kryvoviaz, Jakub Marecek,
- Abstract要約: Human compatible.detectはバイアス検出のためのツールキットである。
バイアスを検出し評価する2つの新しい手法が組み込まれている。
複数の例をドキュメント化した使いやすいAPIがある。
- 参考スコア(独自算出の注目度): 5.1131439843256885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a strong recent emphasis on trustworthy AI. In particular, international regulations, such as the AI Act, demand that AI practitioners measure data quality on the input and estimate bias on the output of high-risk AI systems. However, there are many challenges involved, including scalability (MMD) and computability (Wasserstein-1) issues of traditional methods for estimating distances on measure spaces. Here, we present humancompatible.detect, a toolkit for bias detection that addresses these challenges. It incorporates two newly developed methods to detect and evaluate bias: maximum subgroup discrepancy (MSD) and subsampled $\ell_\infty$ distances. It has an easy-to-use API documented with multiple examples. humancompatible.detect is licensed under the Apache License, Version 2.0.
- Abstract(参考訳): 信頼に値するAIには、最近強く重点を置いている。
特に、AI法のような国際規則では、AI実践者は、入力に関するデータ品質を測定し、リスクの高いAIシステムの出力に対するバイアスを見積もることを要求している。
しかし、測度空間上の距離を推定する従来の手法のスケーラビリティ(MMD)や計算可能性(Wasserstein-1)の問題など、多くの課題がある。
本稿では,これらの課題に対処するバイアス検出ツールキットであるHuman compatible.detectを提案する。
バイアスを検知し評価する2つの新しい手法、最大部分群差分(MSD)と$\ell_\infty$距離のサブサンプルが組み込まれている。
複数の例をドキュメント化した使いやすいAPIがある。
Human compatible.detectはApache License、Version 2.0でライセンスされている。
関連論文リスト
- $\texttt{Droid}$: A Resource Suite for AI-Generated Code Detection [75.6327970381944]
$textbf$textttDroidCollection$$は、機械生成コード検出器のトレーニングと評価のためのオープンデータスイートである。
これには100万以上のコードサンプル、7つのプログラミング言語、43のコーディングモデルからの出力、3つの実世界のコーディングドメインが含まれている。
また、$textttDroidCollection$$でマルチタスクでトレーニングされたエンコーダのみの検出器も開発しています。
論文 参考訳(メタデータ) (2025-07-11T12:19:06Z) - Active Measurement: Efficient Estimation at Scale [25.849595292000107]
科学計測のための人間とループのAIフレームワークであるActive Measurementを紹介した。
AIモデルを使用して個々の単位の測定を予測し、それを人間のラベル付けのためにサンプリングする。
新しい人間のラベルセットによって、AIモデルが改善され、総測定値の偏りのないモンテカルロ推定が洗練される。
論文 参考訳(メタデータ) (2025-07-02T05:20:32Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [89.92916473403108]
本稿では,新しい手法のモジュラーフレームワークであるADerの総合的な視覚異常検出ベンチマークを提案する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Do We Need Another Explainable AI Method? Toward Unifying Post-hoc XAI
Evaluation Methods into an Interactive and Multi-dimensional Benchmark [6.511859672210113]
我々は,xAIアルゴリズムに適用された排他的機能テスト手法を統一するベンチマークであるComparce-xAIを提案する。
このベンチマークは、xAIメソッドを評価する複雑さを3つの階層的なスコアリングにカプセル化する。
インタラクティブなユーザインターフェースは、xAI結果の解釈におけるエラーの軽減に役立つ。
論文 参考訳(メタデータ) (2022-06-08T06:13:39Z) - Measuring the Complexity of Domains Used to Evaluate AI Systems [0.48951183832371004]
本稿では,様々な領域間の複雑性を測定するための理論を提案する。
この測定の応用は、様々な状況におけるツールとしての有効性を示すために示される。
本稿では,AIシステムのインテリジェンスを計算するために,このような複雑性メトリクスの今後の利用を提案する。
論文 参考訳(メタデータ) (2020-09-18T21:53:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。