論文の概要: Introducing explainable supervised machine learning into interactive
feedback loops for statistical production system
- arxiv url: http://arxiv.org/abs/2202.03212v1
- Date: Mon, 7 Feb 2022 14:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:37:09.757143
- Title: Introducing explainable supervised machine learning into interactive
feedback loops for statistical production system
- Title(参考訳): 統計的生産システムのための対話型フィードバックループへの説明可能な教師付き機械学習の導入
- Authors: Carlos Mougan, George Kanellos, Johannes Micheler, Jose Martinez,
Thomas Gottron
- Abstract要約: 我々は,欧州中央銀行が収集したデータと,国立中央銀行が実施したデータ品質保証の相互的フィードバックループを開発する。
フィードバックループは例外を発生させるためのルールベースのチェックのセットに基づいており、ユーザーはデータを確認したり、実際のエラーを修正する。
本稿では,このフィードバックループから受信した情報を用いて,ナショナル・セントラル・バンクスに提示される例外を最適化する。
- 参考スコア(独自算出の注目度): 0.13999481573773068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Statistical production systems cover multiple steps from the collection,
aggregation, and integration of data to tasks like data quality assurance and
dissemination. While the context of data quality assurance is one of the most
promising fields for applying machine learning, the lack of curated and labeled
training data is often a limiting factor.
The statistical production system for the Centralised Securities Database
features an interactive feedback loop between data collected by the European
Central Bank and data quality assurance performed by data quality managers at
National Central Banks. The quality assurance feedback loop is based on a set
of rule-based checks for raising exceptions, upon which the user either
confirms the data or corrects an actual error.
In this paper we use the information received from this feedback loop to
optimize the exceptions presented to the National Central Banks thereby
improving the quality of exceptions generated and the time consumed on the
system by the users authenticating those exceptions. For this approach we make
use of explainable supervised machine learning to (a) identify the types of
exceptions and (b) to prioritize which exceptions are more likely to require an
intervention or correction by the NCBs. Furthermore, we provide an explainable
AI taxonomy aiming to identify the different explainable AI needs that arose
during the project.
- Abstract(参考訳): 統計生産システムは、データの収集、集約、統合からデータ品質保証や普及といったタスクまで、複数のステップをカバーする。
データ品質保証のコンテキストは機械学習を適用する上で最も有望な分野の1つであるが、キュレートされたラベル付きトレーニングデータの欠如はしばしば制限要因である。
中央化証券データベースの統計生産システムは、欧州中央銀行が収集したデータと、国立中央銀行のデータ品質管理者が行うデータ品質保証との間の対話的なフィードバックループを特徴としている。
品質保証フィードバックループは、ユーザがデータを確認したり、実際のエラーを修正したりするための、一連のルールベースのチェックに基づいています。
本稿では,このフィードバックループから受信した情報を用いて,国立中央銀行に提示される例外を最適化し,それらの例外を認証するユーザによる,システム上で発生する例外の質と時間を改善する。
このアプローチでは、説明可能な教師付き機械学習を利用する。
(a)例外の種類を特定して
b) NCBによる介入又は修正を必要とする可能性のある例外を優先すること。
さらに、プロジェクト中に生じたさまざまな説明可能なAIニーズを特定することを目的とした、説明可能なAI分類を提供する。
関連論文リスト
- AAA: an Adaptive Mechanism for Locally Differential Private Mean Estimation [42.95927712062214]
ローカルディファレンシャルプライバシ(LDP)は、一般的なソフトウェアシステムで採用されている強力なプライバシ標準である。
本稿では, 平均効用に対処する分布認識手法である, 適応型アダプティブ (AAA) 機構を提案する。
我々は、厳密なプライバシー証明、ユーティリティ分析、そしてAAAと最先端のメカニズムを比較した広範な実験を提供する。
論文 参考訳(メタデータ) (2024-04-02T04:22:07Z) - Collect, Measure, Repeat: Reliability Factors for Responsible AI Data
Collection [8.12993269922936]
AIのデータ収集は責任ある方法で行うべきだと我々は主張する。
本稿では,データ収集をメトリクスの集合でガイドするResponsible AI(RAI)手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T18:01:27Z) - PAC-Based Formal Verification for Out-of-Distribution Data Detection [4.406331747636832]
本研究は、VAEの符号化プロセスを用いて、OOD検出に基づくほぼ正しい(PAC)保証を行う。
ユーザ定義の信頼性で不慣れなインスタンスに検出エラーをバインドするために使用される。
論文 参考訳(メタデータ) (2023-04-04T07:33:02Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Desiderata for Explainable AI in statistical production systems of the
European Central Bank [0.537133760455631]
我々は、欧州中央銀行の統計生産システムで経験される一般的な説明可能性の必要性を反映した、説明可能なAIのためのユーザ中心のデシラタを述べることを目指している。
我々は,中央銀行における統計データ生産の領域から,中央証券データベースにおける外れ値の検出と,監督銀行データシステムのデータ品質チェックをデータ駆動で識別する2つの具体的なユースケースを提供する。
論文 参考訳(メタデータ) (2021-07-18T05:58:11Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - How Training Data Impacts Performance in Learning-based Control [67.7875109298865]
本稿では,トレーニングデータの密度と制御性能の関係を考察する。
データセットの品質尺度を定式化し、$rho$-gap と呼ぶ。
フィードバック線形化制御法に$rho$-gapを適用する方法を示す。
論文 参考訳(メタデータ) (2020-05-25T12:13:49Z) - Super-App Behavioral Patterns in Credit Risk Models: Financial,
Statistical and Regulatory Implications [110.54266632357673]
従来の官僚データとは対照的に、アプリベースのマーケットプレースから派生した代替データが信用スコアモデルに与える影響を提示する。
2つの国にまたがって検証した結果、これらの新たなデータソースは、低体重者や若年者における金融行動を予測するのに特に有用であることが示された。
論文 参考訳(メタデータ) (2020-05-09T01:32:03Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。