論文の概要: Assessing Trustworthiness of AI Training Dataset using Subjective Logic -- A Use Case on Bias
- arxiv url: http://arxiv.org/abs/2508.13813v1
- Date: Tue, 19 Aug 2025 13:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.933024
- Title: Assessing Trustworthiness of AI Training Dataset using Subjective Logic -- A Use Case on Bias
- Title(参考訳): 主観論理を用いたAIトレーニングデータセットの信頼性評価 - バイアスのユースケース
- Authors: Koffi Ismael Ouattara, Ioannis Krontiris, Theo Dimitrakos, Frank Kargl,
- Abstract要約: 本稿では,AIトレーニングデータセットの信頼性を評価するための最初の公式フレームワークを紹介する。
バイアスの信頼性に関するこの枠組みをインスタンス化し,交通標識認識データセットに基づいて実験的に評価する。
- 参考スコア(独自算出の注目度): 5.919780779766899
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI systems increasingly rely on training data, assessing dataset trustworthiness has become critical, particularly for properties like fairness or bias that emerge at the dataset level. Prior work has used Subjective Logic to assess trustworthiness of individual data, but not to evaluate trustworthiness properties that emerge only at the level of the dataset as a whole. This paper introduces the first formal framework for assessing the trustworthiness of AI training datasets, enabling uncertainty-aware evaluations of global properties such as bias. Built on Subjective Logic, our approach supports trust propositions and quantifies uncertainty in scenarios where evidence is incomplete, distributed, and/or conflicting. We instantiate this framework on the trustworthiness property of bias, and we experimentally evaluate it based on a traffic sign recognition dataset. The results demonstrate that our method captures class imbalance and remains interpretable and robust in both centralized and federated contexts.
- Abstract(参考訳): AIシステムはデータトレーニングにますます依存しているため、特にデータセットレベルで現れる公正性や偏見といった特性に対して、データセットの信頼性を評価することが重要になっている。
以前の作業では、個々のデータの信頼性を評価するために、主観的論理を使用していたが、データセット全体のレベルにのみ現れる信頼性特性を評価できなかった。
本稿では,AIトレーニングデータセットの信頼性を評価するための最初の形式的枠組みを紹介する。
主観論理に基づいて構築された我々の手法は、証拠が不完全、分散、および/または矛盾するシナリオにおける信頼命題をサポートし、不確実性を定量化する。
バイアスの信頼性に関するこの枠組みをインスタンス化し、交通標識認識データセットに基づいて実験的に評価する。
その結果,本手法はクラス不均衡を捕捉し,集中型および連合型両方の文脈で解釈可能かつ堅牢であることがわかった。
関連論文リスト
- Beyond Internal Data: Constructing Complete Datasets for Fairness Testing [26.037607208689977]
この研究は、人口統計を含む完全なデータセットがアクセスできない場合に、分類器の公平性を評価することに重点を置いている。
人口統計情報を含む完全合成データを構築するために,異なる重なり合うデータセットを活用することを提案する。
合成データの忠実度を実データと比較することにより検証し、そのような合成データ上でのテストから得られた公正度指標が実データから得られたものと一致していることを実証的に示す。
論文 参考訳(メタデータ) (2025-07-24T16:35:42Z) - Aurora: Are Android Malware Classifiers Reliable and Stable under Distribution Shift? [51.12297424766236]
AURORAは、その信頼性と運用上のレジリエンスに基づいて、マルウェア分類器を評価するためのフレームワークである。
AURORAは、ポイント・イン・タイムのパフォーマンスを超えるように設計されたメトリクスのセットによって補完される。
さまざまなドリフトのデータセットにわたるSOTAフレームワークの脆弱性は、ホワイトボードへの復帰の必要性を示唆している。
論文 参考訳(メタデータ) (2025-05-28T20:22:43Z) - Financial Data Analysis with Robust Federated Logistic Regression [7.68275287892947]
本研究では,データを複数のクライアントやロケーションに分散するフェデレートされた環境での財務データの解析に焦点をあてる。
我々は,これらの目標のバランスを保とうとする,ロジスティックなロジスティック回帰に基づく堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-28T20:42:24Z) - Fairness without Sensitive Attributes via Knowledge Sharing [13.141672574114597]
本稿では,信頼度に基づく階層型分類手法であるReckonerを提案する。
実験の結果、ReckonerはCompASデータセットとNew Adultデータセットにおいて、最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-27T06:16:14Z) - Learning Decomposable and Debiased Representations via Attribute-Centric Information Bottlenecks [21.813755593742858]
データセット内のターゲットラベルと突発的に相関するバイアス属性は、分類の不適切なショートカットを学習するニューラルネットワークに問題を引き起こす可能性がある。
本稿では,属性の合成表現を学習するための注目に基づく情報ボトルネックを導入し,新たなデバイアス化フレームワークであるデバイアスンググローバルワークスペースを提案する。
偏りのあるデータセットに対する包括的評価と定量的および定性的な分析を行い、アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-21T05:33:49Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Data-SUITE: Data-centric identification of in-distribution incongruous
examples [81.21462458089142]
Data-SUITEは、ID(In-distriion)データの不連続領域を特定するためのデータ中心のフレームワークである。
我々は,Data-SUITEの性能保証とカバレッジ保証を実証的に検証する。
論文 参考訳(メタデータ) (2022-02-17T18:58:31Z) - A Sentiment Analysis Dataset for Trustworthiness Evaluation [22.734197353027632]
深層学習モデルはブラックボックス問題のために信頼できないとしばしば批判される。
我々は、頑健さと解釈可能性を評価するために、新しくよく注釈付けされた感情分析データセットをリリースする。
論文 参考訳(メタデータ) (2021-08-30T11:58:16Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。