論文の概要: System Cards for AI-Based Decision-Making for Public Policy
- arxiv url: http://arxiv.org/abs/2203.04754v2
- Date: Wed, 31 Aug 2022 19:57:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:30:33.860626
- Title: System Cards for AI-Based Decision-Making for Public Policy
- Title(参考訳): 公共政策のためのAIに基づく意思決定のためのシステムカード
- Authors: Furkan Gursoy and Ioannis A. Kakadiaris
- Abstract要約: 本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークを提案する。
これは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、および(a)開発、(b)評価、(c)緩和、(d)保証に焦点を当てた行からなる4つの4つの4つの行列にまとめられた56の基準からなる。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions impacting human lives are increasingly being made or assisted by
automated decision-making algorithms. Many of these algorithms process personal
data for predicting recidivism, credit risk analysis, identifying individuals
using face recognition, and more. While potentially improving efficiency and
effectiveness, such algorithms are not inherently free from bias, opaqueness,
lack of explainability, maleficence, and the like. Given that the outcomes of
these algorithms have a significant impact on individuals and society and are
open to analysis and contestation after deployment, such issues must be
accounted for before deployment. Formal audits are a way of ensuring algorithms
meet the appropriate accountability standards. This work, based on an extensive
analysis of the literature and an expert focus group study, proposes a unifying
framework for a system accountability benchmark for formal audits of artificial
intelligence-based decision-aiding systems. This work also proposes system
cards to serve as scorecards presenting the outcomes of such audits. It
consists of 56 criteria organized within a four-by-four matrix composed of rows
focused on (i) data, (ii) model, (iii) code, (iv) system, and columns focused
on (a) development, (b) assessment, (c) mitigation, and (d) assurance. The
proposed system accountability benchmark reflects the state-of-the-art
developments for accountable systems, serves as a checklist for algorithm
audits, and paves the way for sequential work in future research.
- Abstract(参考訳): 人間の生活に影響を与える決定はますます行われ、自動意思決定アルゴリズムによって助けられている。
これらのアルゴリズムの多くは、個人データを処理し、リシディズム、信用リスク分析、顔認識を用いた個人識別などを行う。
効率と有効性は向上するが、このようなアルゴリズムは本質的にバイアスや不透明さ、説明可能性の欠如、悪質さなどから自由ではない。
これらのアルゴリズムの結果が個人や社会に大きな影響を与え、展開後の分析やコンテストに開放されることを考えると、そのような問題は展開前に考慮しなければならない。
形式監査は、アルゴリズムが適切な説明責任基準を満たすための方法である。
本研究は、文献の広範な分析とエキスパートフォーカスグループの研究に基づき、人工知能に基づく意思決定支援システムの形式的監査のためのシステム説明責任ベンチマークの統一フレームワークを提案する。
また,このような監査の結果を示すスコアカードとしてシステムカードを提案する。
56の基準からなり、焦点を絞った行からなる4つずつの行列で構成される。
(i) データ
(ii)モデル。
(iii)コード
(iv)システム、及び、その柱
(a)開発
b)アセスメント,
(c)緩和、及び
(d)保証。
提案するシステムアカウンタビリティベンチマークは、会計システムの現状を反映し、アルゴリズム監査のチェックリストとして機能し、将来の研究におけるシーケンシャルな作業の道を開く。
関連論文リスト
- Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Closing the AI Accountability Gap: Defining an End-to-End Framework for
Internal Algorithmic Auditing [8.155332346712424]
本稿では,人工知能システム開発をエンドツーエンドでサポートするアルゴリズム監査フレームワークを提案する。
提案する監査フレームワークは,大規模人工知能システムの開発と展開において,説明責任のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T20:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。