論文の概要: Desiderata for Explainable AI in statistical production systems of the
European Central Bank
- arxiv url: http://arxiv.org/abs/2107.08045v1
- Date: Sun, 18 Jul 2021 05:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:09:42.948589
- Title: Desiderata for Explainable AI in statistical production systems of the
European Central Bank
- Title(参考訳): 欧州中央銀行の統計生産システムにおける説明可能なaiのデシデラタ
- Authors: Carlos Mougan Navarro, Georgios Kanellos, Thomas Gottron
- Abstract要約: 我々は、欧州中央銀行の統計生産システムで経験される一般的な説明可能性の必要性を反映した、説明可能なAIのためのユーザ中心のデシラタを述べることを目指している。
我々は,中央銀行における統計データ生産の領域から,中央証券データベースにおける外れ値の検出と,監督銀行データシステムのデータ品質チェックをデータ駆動で識別する2つの具体的なユースケースを提供する。
- 参考スコア(独自算出の注目度): 0.537133760455631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable AI constitutes a fundamental step towards establishing fairness
and addressing bias in algorithmic decision-making. Despite the large body of
work on the topic, the benefit of solutions is mostly evaluated from a
conceptual or theoretical point of view and the usefulness for real-world use
cases remains uncertain. In this work, we aim to state clear user-centric
desiderata for explainable AI reflecting common explainability needs
experienced in statistical production systems of the European Central Bank. We
link the desiderata to archetypical user roles and give examples of techniques
and methods which can be used to address the user's needs. To this end, we
provide two concrete use cases from the domain of statistical data production
in central banks: the detection of outliers in the Centralised Securities
Database and the data-driven identification of data quality checks for the
Supervisory Banking data system.
- Abstract(参考訳): 説明可能なAIは、アルゴリズムによる意思決定において公正性を確立し、バイアスに対処するための基本的なステップである。
このトピックに関する多くの研究にもかかわらず、ソリューションの利点は概念的あるいは理論的観点から評価され、現実世界のユースケースの有用性は依然として不明である。
本研究では,欧州中央銀行の統計生産システムで経験される一般的な説明可能性の必要性を反映した,説明可能なAIのための明確なユーザ中心のデシラタについて述べる。
我々は,desiderata とarchetypical user role をリンクし,ユーザニーズに対応するためのテクニックや手法の例を示す。
この目的のために、中央銀行における統計データ生産の領域から、中央証券データベースにおける外れ値の検出と、監督銀行データシステムにおけるデータ品質チェックのデータ駆動識別という2つの具体的なユースケースを提供する。
関連論文リスト
- Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - NLP-based Decision Support System for Examination of Eligibility
Criteria from Securities Prospectuses at the German Central Bank [0.0]
ドイツ中央銀行(中央銀行)はPDF形式でスキャンされた数百の先入観を受信し、その適性を決定するために手作業で処理する必要がある。
この退屈で時間を要するプロセスは、現代的なNLPモデルアーキテクチャを利用することで(半自動で)実現できることがわかりました。
提案する意思決定支援システムは、人間の理解可能な説明を伴う文書レベルの適格基準を決定する。
論文 参考訳(メタデータ) (2023-02-09T11:00:58Z) - System Cards for AI-Based Decision-Making for Public Policy [5.076419064097733]
本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
論文 参考訳(メタデータ) (2022-03-01T18:56:45Z) - Introducing explainable supervised machine learning into interactive
feedback loops for statistical production system [0.13999481573773068]
我々は,欧州中央銀行が収集したデータと,国立中央銀行が実施したデータ品質保証の相互的フィードバックループを開発する。
フィードバックループは例外を発生させるためのルールベースのチェックのセットに基づいており、ユーザーはデータを確認したり、実際のエラーを修正する。
本稿では,このフィードバックループから受信した情報を用いて,ナショナル・セントラル・バンクスに提示される例外を最適化する。
論文 参考訳(メタデータ) (2022-02-07T14:17:06Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Super-App Behavioral Patterns in Credit Risk Models: Financial,
Statistical and Regulatory Implications [110.54266632357673]
従来の官僚データとは対照的に、アプリベースのマーケットプレースから派生した代替データが信用スコアモデルに与える影響を提示する。
2つの国にまたがって検証した結果、これらの新たなデータソースは、低体重者や若年者における金融行動を予測するのに特に有用であることが示された。
論文 参考訳(メタデータ) (2020-05-09T01:32:03Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。