論文の概要: System Cards for AI-Based Decision-Making for Public Policy
- arxiv url: http://arxiv.org/abs/2203.04754v1
- Date: Tue, 1 Mar 2022 18:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-13 13:25:28.053453
- Title: System Cards for AI-Based Decision-Making for Public Policy
- Title(参考訳): 公共政策のためのAIに基づく意思決定のためのシステムカード
- Authors: Furkan Gursoy and Ioannis A. Kakadiaris
- Abstract要約: 本研究では,人工知能に基づく意思決定システムの公式監査のためのシステム説明責任ベンチマークの枠組みを提案する。
このベンチマークは、(i)データ、(ii)モデル、(iii)コード、(iv)システム、(a)開発、(b)評価、(c)緩和、(d)保証の次元からなる4つから4つのマトリックスにまとめられた50の基準からなる。
- 参考スコア(独自算出の注目度): 5.076419064097733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decisions in public policy are increasingly being made or assisted by
automated decision-making algorithms. Many of these algorithms process personal
data for tasks such as predicting recidivism, assisting welfare decisions,
identifying individuals using face recognition, and more. While potentially
improving efficiency and effectiveness, such algorithms are not inherently free
from issues such as bias, opaqueness, lack of explainability, maleficence, and
the like. Given that the outcomes of these algorithms have significant impacts
on individuals and society and are open to analysis and contestation after
deployment, such issues must be accounted for before deployment. Formal audits
are a way towards ensuring algorithms that are used in public policy meet the
appropriate accountability standards. This work, based on an extensive analysis
of the literature, proposes a unifying framework for system accountability
benchmark for formal audits of artificial intelligence-based decision-aiding
systems in public policy as well as system cards that serve as scorecards
presenting the outcomes of such audits. The benchmark consists of 50 criteria
organized within a four by four matrix consisting of the dimensions of (i)
data, (ii) model, (iii) code, (iv) system and (a) development, (b) assessment,
(c) mitigation, (d) assurance. Each criterion is described and discussed
alongside a suggested measurement scale indicating whether the evaluations are
to be performed by humans or computers and whether the evaluation outcomes are
binary or on an ordinal scale. The proposed system accountability benchmark
reflects the state-of-the-art developments for accountable systems, serves as a
checklist for future algorithm audits, and paves the way for sequential work as
future research.
- Abstract(参考訳): 公共政策の決定はますます行われ、自動意思決定アルゴリズムによって支援されている。
これらのアルゴリズムの多くは、リシディズムの予測、福祉決定の支援、顔認識を用いた個人識別などのタスクのために個人データを処理している。
効率性と有効性は向上するが、このようなアルゴリズムは本質的にバイアス、不透明性、説明可能性の欠如、悪質性などの問題から自由ではない。
これらのアルゴリズムの結果が個人や社会に大きな影響を与え、展開後の分析やコンテストに開放されることを考えると、そのような問題は展開前に考慮しなければならない。
公式監査は、公開政策で使用されるアルゴリズムが適切な説明責任基準を満たすための方法である。
この研究は、文献の広範な分析に基づいて、公的な政策における人工知能に基づく意思決定システムの正式な監査のためのシステムアカウンタビリティベンチマークと、そのような監査の結果を示すスコアカードとして機能するシステムカードの統一フレームワークを提案する。
ベンチマークは、次元からなる4次元と4次元の行列で構成された50の基準からなる。
(i) データ
(ii)モデル。
(iii)コード
(iv)システム及び
(a)開発
b)アセスメント,
(c)緩和
(d)保証。
各基準を、人間またはコンピュータによる評価を行うか、評価結果がバイナリであるか順序尺度であるかを示す提案測定尺度と共に記述し、議論する。
提案するシステムアカウンタビリティベンチマークは、会計システムの現状を反映し、将来のアルゴリズム監査のチェックリストとして機能し、今後の研究としてシーケンシャルな作業の道を開く。
関連論文リスト
- Stream-Based Monitoring of Algorithmic Fairness [4.811789437743092]
ストリームベースのモニタリングは,実行時の決定と予測システムのアルゴリズム的公正性を検証するためのソリューションとして提案されている。
本稿では,仕様言語 RTLola における時空間データストリームに対するアルゴリズム的公正性を定式化する方法を提案する。
論文 参考訳(メタデータ) (2025-01-30T13:18:59Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Who Audits the Auditors? Recommendations from a field scan of the
algorithmic auditing ecosystem [0.971392598996499]
AI監査エコシステムの最初の包括的なフィールドスキャンを提供する。
私たちは、新たなベストプラクティスと、一般的になりつつある方法やツールを特定します。
これらの監査の質と影響を改善するための政策勧告を概説する。
論文 参考訳(メタデータ) (2023-10-04T01:40:03Z) - Influence of the algorithm's reliability and transparency in the user's
decision-making process [0.0]
我々は61人の参加者とともにオンライン実験を行い、アルゴリズムの透明性と信頼性の変化がユーザーの意思決定プロセスにどのように影響するかを調べる。
その結果,信頼性が悪くても,アルゴリズムの判断にある程度の信頼感が示されることがわかった。
論文 参考訳(メタデータ) (2023-07-13T03:13:49Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Outsider Oversight: Designing a Third Party Audit Ecosystem for AI
Governance [3.8997087223115634]
我々は、現在のAIの状況におけるサードパーティの監視の課題について論じる。
このような監査の制度設計はモノリシックとは程遠い。
我々は,監査のみへの転換が,実際のアルゴリズム的説明責任を達成する可能性は低いと結論づける。
論文 参考訳(メタデータ) (2022-06-09T19:18:47Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。