論文の概要: Ethical and Explainable AI in Reusable MLOps Pipelines
- arxiv url: http://arxiv.org/abs/2603.03341v1
- Date: Sun, 15 Feb 2026 18:29:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.170968
- Title: Ethical and Explainable AI in Reusable MLOps Pipelines
- Title(参考訳): 再利用可能なMLOpsパイプラインにおける倫理的で説明可能なAI
- Authors: Rakib Hossain, Mahmood Menon Khan, Lisan Al Amin, Dhruv Parikh, Farhana Afroz, Bestoun S. Ahmed,
- Abstract要約: 提案手法は, モデル修正を伴わずに, 人口パーティ差(DPD)を0.31から0.04に下げることでバイアスを低減する。
このフレームワークは、すべてのデプロイメントにまたがる運用制限内で、公正なメトリクスを維持している。
DPD = 0.05 と EO = 0.03 を一貫して達成し、KS の統計は 0.20 にとどまった。
- 参考スコア(独自算出の注目度): 0.8209843760716958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a unified machine learning operations (MLOps) framework that brings ethical artificial intelligence principles into practical use by enforcing fairness, explainability, and governance throughout the machine learning lifecycle. The proposed method reduces bias by lowering the demographic parity difference (DPD) from 0.31 to 0.04 without model retuning, and cross-dataset validation achieves an area under the curve (AUC) of 0.89 on the Statlog Heart dataset. The framework maintains fairness metrics within operational limits across all deployments. Model deployment is blocked if the DPD exceeds 0.05 or if equalized odds (EO) exceeds 0.05 on the validation set. After deployment, retraining is automatically triggered if the 30-day Kolmogorov-Smirnov drift statistic exceeds 0.20. In production, the system consistently achieved DPD <= 0.05 and EO <= 0.03, while the KS statistic remained <= 0.20. Decision-curve analysis indicates a positive net benefit in the 10 to 20 percent operating range, showing that the mitigated model preserves predictive utility while satisfying fairness constraints. These results demonstrate that automated fairness gates and explainability artefacts can be successfully deployed in production without disrupting operational flow, providing organizations with a practical and credible approach to implementing ethical, transparent, and trustworthy AI across diverse datasets and operational settings.
- Abstract(参考訳): 本稿では、機械学習ライフサイクル全体を通して公正性、説明可能性、ガバナンスを強制することにより、倫理的人工知能の原則を実践的に活用する統合機械学習操作(MLOps)フレームワークを紹介する。
提案手法は, モデル再構成を行わずに, 人口パーティ差(DPD)を0.31から0.04に下げることによりバイアスを低減し, クロスデータセット検証により, Statlog Heartデータセットの0.89の曲線(AUC)以下の領域を達成できる。
このフレームワークは、すべてのデプロイメントにまたがる運用制限内で、公正なメトリクスを維持している。
DPD が 0.05 を超える場合や、検証セットで等化奇数 (EO) が 0.05 を超える場合、モデル展開はブロックされる。
配備後、30日間のコルモゴロフ=スミルノフのドリフト統計が0.20を超えた場合、再訓練が自動的に起動される。
DPD <= 0.05 と EO <= 0.03 を一貫して達成したが、KS の統計は <= 0.20 のままであった。
決定曲線解析は、10~20%の操作範囲において正の正の正の利益を示し、緩和されたモデルが公正性制約を満たすとともに予測実用性を保っていることを示す。
これらの結果は、自動フェアネスゲートと説明可能性アーティファクトが運用フローを損なうことなく本番環境での運用に成功できることを示し、さまざまなデータセットや運用環境にまたがって倫理的で透明で信頼性の高いAIを実装するための実践的で信頼性の高いアプローチを提供する。
関連論文リスト
- Zero-Training Temporal Drift Detection for Transformer Sentiment Models: A Comprehensive Analysis on Authentic Social Media Streams [0.0]
本稿では,主要な実世界のイベントから得られたソーシャルメディアデータに基づいて,トランスフォーマーに基づく感情モデルの総合的ゼロトレーニング時流解析を行う。
イベント駆動の期間において,精度低下を伴うモデル不安定性が23.4%に達することを示す。
このゼロトレーニング手法は、リアルタイムの感情監視システムの即時展開を可能にし、動的コンテンツ期間中のトランスフォーマーモデルの振る舞いに関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-11-30T13:08:59Z) - SG-OIF: A Stability-Guided Online Influence Framework for Reliable Vision Data [6.4391040754741296]
本稿では,テスト予測に対するトレーニングポイントの影響を近似するための安定誘導オンライン影響フレームワーク(SG-OIF)を提案する。
CIFAR-10の上位1%の予測サンプルでは,SG-OIFが91.1%,MNISTの99.8%のAUPRスコアが得られた。
論文 参考訳(メタデータ) (2025-11-21T19:58:54Z) - A Fuzzy Logic-Based Framework for Explainable Machine Learning in Big Data Analytics [0.0]
本稿では,2型ファジィ集合,粒度計算,クラスタリングを組み合わせて,ビッグデータ環境における説明可能性と公平性を高める新しいフレームワークを提案する。
UCI Air Qualityデータセットに適用した場合、このフレームワークはノイズの多いセンサデータの不確実性を効果的に管理し、言語規則を作成し、シルエットスコアとエントロピーを用いて公平さを評価する。
論文 参考訳(メタデータ) (2025-09-29T18:02:31Z) - A Contrastive Learning-Guided Confident Meta-learning for Zero Shot Anomaly Detection [17.73056562717683]
CoZADは、新しいゼロショット異常検出フレームワークである。
ソフト・インテリジェンス・ラーニングとメタラーニングとコントラスト的特徴表現を統合している。
7つの産業ベンチマークのうち6つで既存の手法を上回ります。
論文 参考訳(メタデータ) (2025-08-25T09:27:31Z) - AI-Driven IRM: Transforming insider risk management with adaptive scoring and LLM-based threat detection [0.31457219084519]
インサイダーの脅威は、組織のセキュリティに重大な課題をもたらします。
IRMシステムは行動分析、動的リスクスコアリング、リアルタイムポリシー適用を統合している。
システムは偽陽性を59%減少させ、真の正検出率を30%向上させる。
論文 参考訳(メタデータ) (2025-05-01T18:41:00Z) - Collaborative Value Function Estimation Under Model Mismatch: A Federated Temporal Difference Analysis [55.13545823385091]
フェデレーション強化学習(FedRL)は、エージェント間のデータ交換を防止し、データのプライバシを維持しながら協調学習を可能にする。
現実世界のアプリケーションでは、各エージェントは若干異なる遷移ダイナミクスを経験し、固有のモデルミスマッチを引き起こす。
情報共有の適度なレベルでさえ、環境固有のエラーを著しく軽減することを示す。
論文 参考訳(メタデータ) (2025-03-21T18:06:28Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Unsupervised Domain Adaptation for Speech Recognition via Uncertainty
Driven Self-Training [55.824641135682725]
WSJ をソースドメインとし,TED-Lium 3 とSWITCHBOARD を併用したドメイン適応実験を行った。
論文 参考訳(メタデータ) (2020-11-26T18:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。