論文の概要: Assessing Trustworthiness of AI Training Dataset using Subjective Logic -- A Use Case on Bias
- arxiv url: http://arxiv.org/abs/2508.13813v1
- Date: Tue, 19 Aug 2025 13:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.933024
- Title: Assessing Trustworthiness of AI Training Dataset using Subjective Logic -- A Use Case on Bias
- Title(参考訳): 主観論理を用いたAIトレーニングデータセットの信頼性評価 - バイアスのユースケース
- Authors: Koffi Ismael Ouattara, Ioannis Krontiris, Theo Dimitrakos, Frank Kargl,
- Abstract要約: 本稿では,AIトレーニングデータセットの信頼性を評価するための最初の公式フレームワークを紹介する。
バイアスの信頼性に関するこの枠組みをインスタンス化し,交通標識認識データセットに基づいて実験的に評価する。
- 参考スコア(独自算出の注目度): 5.919780779766899
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI systems increasingly rely on training data, assessing dataset trustworthiness has become critical, particularly for properties like fairness or bias that emerge at the dataset level. Prior work has used Subjective Logic to assess trustworthiness of individual data, but not to evaluate trustworthiness properties that emerge only at the level of the dataset as a whole. This paper introduces the first formal framework for assessing the trustworthiness of AI training datasets, enabling uncertainty-aware evaluations of global properties such as bias. Built on Subjective Logic, our approach supports trust propositions and quantifies uncertainty in scenarios where evidence is incomplete, distributed, and/or conflicting. We instantiate this framework on the trustworthiness property of bias, and we experimentally evaluate it based on a traffic sign recognition dataset. The results demonstrate that our method captures class imbalance and remains interpretable and robust in both centralized and federated contexts.
- Abstract(参考訳): AIシステムはデータトレーニングにますます依存しているため、特にデータセットレベルで現れる公正性や偏見といった特性に対して、データセットの信頼性を評価することが重要になっている。
以前の作業では、個々のデータの信頼性を評価するために、主観的論理を使用していたが、データセット全体のレベルにのみ現れる信頼性特性を評価できなかった。
本稿では,AIトレーニングデータセットの信頼性を評価するための最初の形式的枠組みを紹介する。
主観論理に基づいて構築された我々の手法は、証拠が不完全、分散、および/または矛盾するシナリオにおける信頼命題をサポートし、不確実性を定量化する。
バイアスの信頼性に関するこの枠組みをインスタンス化し、交通標識認識データセットに基づいて実験的に評価する。
その結果,本手法はクラス不均衡を捕捉し,集中型および連合型両方の文脈で解釈可能かつ堅牢であることがわかった。
関連論文リスト
- Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - Beyond Internal Data: Constructing Complete Datasets for Fairness Testing [26.037607208689977]
この研究は、人口統計を含む完全なデータセットがアクセスできない場合に、分類器の公平性を評価することに重点を置いている。
人口統計情報を含む完全合成データを構築するために,異なる重なり合うデータセットを活用することを提案する。
合成データの忠実度を実データと比較することにより検証し、そのような合成データ上でのテストから得られた公正度指標が実データから得られたものと一致していることを実証的に示す。
論文 参考訳(メタデータ) (2025-07-24T16:35:42Z) - Understanding challenges to the interpretation of disaggregated evaluations of algorithmic fairness [49.35494016290887]
関係する人口を表わすが、実世界の格差を反映するデータである場合、サブグループ間での平等なパフォーマンスは、信頼できない公平さの尺度であることを示す。
本フレームワークでは, 因果関係の明示的な仮定と分析を相補して, 相反や分布変化の制御を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:40:31Z) - Aurora: Are Android Malware Classifiers Reliable and Stable under Distribution Shift? [51.12297424766236]
AURORAは、その信頼性と運用上のレジリエンスに基づいて、マルウェア分類器を評価するためのフレームワークである。
AURORAは、ポイント・イン・タイムのパフォーマンスを超えるように設計されたメトリクスのセットによって補完される。
さまざまなドリフトのデータセットにわたるSOTAフレームワークの脆弱性は、ホワイトボードへの復帰の必要性を示唆している。
論文 参考訳(メタデータ) (2025-05-28T20:22:43Z) - Testing Fairness with Utility Tradeoffs: A Wasserstein Projection Approach [6.378410364292642]
本稿では,近似的公正性と有効性を共同で評価する統計的仮説テストフレームワークを提案する。
当社のフレームワークは,人口統計学の同等性基準に基づいて構築され,潜在的成果フレームワークに動機づけられた実用性尺度が組み込まれている。
このテストは、計算可能で、解釈可能で、機械学習モデルに広く適用でき、より一般的な設定に拡張可能であることを示す。
論文 参考訳(メタデータ) (2025-05-16T20:29:06Z) - Financial Data Analysis with Robust Federated Logistic Regression [7.68275287892947]
本研究では,データを複数のクライアントやロケーションに分散するフェデレートされた環境での財務データの解析に焦点をあてる。
我々は,これらの目標のバランスを保とうとする,ロジスティックなロジスティック回帰に基づく堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-28T20:42:24Z) - Fairness without Sensitive Attributes via Knowledge Sharing [13.141672574114597]
本稿では,信頼度に基づく階層型分類手法であるReckonerを提案する。
実験の結果、ReckonerはCompASデータセットとNew Adultデータセットにおいて、最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-27T06:16:14Z) - Learning Decomposable and Debiased Representations via Attribute-Centric Information Bottlenecks [21.813755593742858]
データセット内のターゲットラベルと突発的に相関するバイアス属性は、分類の不適切なショートカットを学習するニューラルネットワークに問題を引き起こす可能性がある。
本稿では,属性の合成表現を学習するための注目に基づく情報ボトルネックを導入し,新たなデバイアス化フレームワークであるデバイアスンググローバルワークスペースを提案する。
偏りのあるデータセットに対する包括的評価と定量的および定性的な分析を行い、アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-21T05:33:49Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - A Sentiment Analysis Dataset for Trustworthiness Evaluation [22.734197353027632]
深層学習モデルはブラックボックス問題のために信頼できないとしばしば批判される。
我々は、頑健さと解釈可能性を評価するために、新しくよく注釈付けされた感情分析データセットをリリースする。
論文 参考訳(メタデータ) (2021-08-30T11:58:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。