論文の概要: The Flaws of Policies Requiring Human Oversight of Government Algorithms
- arxiv url: http://arxiv.org/abs/2109.05067v4
- Date: Mon, 24 Oct 2022 14:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 11:38:48.474352
- Title: The Flaws of Policies Requiring Human Oversight of Government Algorithms
- Title(参考訳): 政府アルゴリズムの人的監視を必要とする政策の欠陥
- Authors: Ben Green
- Abstract要約: 政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
まず、政府機関はアルゴリズムを意思決定に組み込むのが適切であることを正当化しなければならない。
第二に、これらの正当化は、政府機関がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As algorithms become an influential component of government decision-making
around the world, policymakers have debated how governments can attain the
benefits of algorithms while preventing the harms of algorithms. One mechanism
that has become a centerpiece of global efforts to regulate government
algorithms is to require human oversight of algorithmic decisions. Despite the
widespread turn to human oversight, these policies rest on an uninterrogated
assumption: that people are able to effectively oversee algorithmic
decision-making. In this article, I survey 41 policies that prescribe human
oversight of government algorithms and find that they suffer from two
significant flaws. First, evidence suggests that people are unable to perform
the desired oversight functions. Second, as a result of the first flaw, human
oversight policies legitimize government uses of faulty and controversial
algorithms without addressing the fundamental issues with these tools. Thus,
rather than protect against the potential harms of algorithmic decision-making
in government, human oversight policies provide a false sense of security in
adopting algorithms and enable vendors and agencies to shirk accountability for
algorithmic harms. In light of these flaws, I propose a shift from human
oversight to institutional oversight as the central mechanism for regulating
government algorithms. This institutional approach operates in two stages.
First, agencies must justify that it is appropriate to incorporate an algorithm
into decision-making and that any proposed forms of human oversight are
supported by empirical evidence. Second, these justifications must receive
democratic public review and approval before the agency can adopt the
algorithm.
- Abstract(参考訳): アルゴリズムが世界中の政府の意思決定に影響力を持つようになるにつれて、政策立案者は、アルゴリズムの害を防ぎながら、いかに政府がアルゴリズムの利点を享受できるかを議論してきた。
政府のアルゴリズムを規制するグローバルな取り組みの中心となったメカニズムの1つは、アルゴリズムの決定を人間に監督することである。
人類の監視への広範な転換にもかかわらず、これらの政策は、人々がアルゴリズムによる意思決定を効果的に監督できるという、非干渉的な仮定に基づいている。
本稿では、政府アルゴリズムの人間の監視を規定する41のポリシーを調査し、それらが2つの重大な欠陥に苦しむことを見出します。
第一に、人々が望ましい監視機能を実行できないという証拠がある。
第二に、最初の欠陥の結果として、人間の監視ポリシーは、これらのツールの根本的な問題に対処することなく、政府による欠陥と議論を呼ぶアルゴリズムの使用を合法化します。
したがって、政府におけるアルゴリズム決定の潜在的な害から保護するのではなく、人間の監視ポリシーは、アルゴリズムを採用する際のセキュリティの誤った感覚を与え、ベンダーや機関がアルゴリズムの害に対して責任を負うことを可能にする。
これらの欠陥を踏まえて、政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
この制度的なアプローチは2段階で動作する。
第一に、機関はアルゴリズムを意思決定に組み込むことが適切であり、提案された人間の監視形態が実証的な証拠によって支持されることを正当化しなければならない。
第二に、これらの正当化は、政府がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
関連論文リスト
- Persuasion, Delegation, and Private Information in Algorithm-Assisted
Decisions [0.0]
プリンシパルは、バイナリ状態の公開観測可能な予測を生成するアルゴリズムを設計する。
彼女は、予測に基づいて直接行動するか、または、私的な情報を持つエージェントに決定を委譲するかを判断しなければならない。
このような環境における予測アルゴリズムとデリゲートルールの最適設計について検討する。
論文 参考訳(メタデータ) (2024-02-14T18:32:30Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Human Control: Definitions and Algorithms [11.536162323162099]
閉鎖命令性は, 適切な停止動作, 人間の自律性維持, ユーザの危害の回避を示唆することを示す。
また,非閉塞性と閉鎖アライメントの関連概念,従来提案されていた3つの人体制御アルゴリズム,および1つの新しいアルゴリズムを分析した。
論文 参考訳(メタデータ) (2023-05-31T13:53:02Z) - How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers? Part II [0.0]
マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-11T20:54:49Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Machine Learning for Online Algorithm Selection under Censored Feedback [71.6879432974126]
オンラインアルゴリズム選択(OAS)では、アルゴリズム問題クラスのインスタンスがエージェントに次々に提示され、エージェントは、固定された候補アルゴリズムセットから、おそらく最高のアルゴリズムを迅速に選択する必要がある。
SAT(Satisfiability)のような決定問題に対して、品質は一般的にアルゴリズムのランタイムを指す。
本研究では,OASのマルチアームバンディットアルゴリズムを再検討し,この問題に対処する能力について議論する。
ランタイム指向の損失に適応し、時間的地平線に依存しない空間的・時間的複雑さを維持しながら、部分的に検閲されたデータを可能にする。
論文 参考訳(メタデータ) (2021-09-13T18:10:52Z) - Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence [0.0]
アメリカには、厳格な法律の禁止や、損傷を測定するための特定のプロトコルが欠けている。
自動運転車や銀行から医療、住宅、そして法的な決定に至るまで、もうすぐ膨大な量のアルゴリズムが存在する。
政府、企業、社会はアルゴリズム監査を受け、アルゴリズムが合法的で倫理的かつ安全であることを体系的に検証する。
論文 参考訳(メタデータ) (2021-07-14T15:16:40Z) - Towards Meta-Algorithm Selection [78.13985819417974]
インスタンス固有のアルゴリズム選択(AS)は、固定された候補集合からのアルゴリズムの自動選択を扱う。
メタアルゴリズムの選択は、いくつかのケースで有益であることを示す。
論文 参考訳(メタデータ) (2020-11-17T17:27:33Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。