論文の概要: How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers?
- arxiv url: http://arxiv.org/abs/2301.04713v1
- Date: Wed, 11 Jan 2023 20:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:03:28.430711
- Title: How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers?
- Title(参考訳): 刑事司法当局のためのアルゴリズム的意思決定ツールを構築する際に「技術的な」設計はどのようにして憲法上の危険をもたらすのか?
- Authors: Karen Yeung and Adam Harkens
- Abstract要約: マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This two part paper argues that seemingly "technical" choices made by
developers of machine-learning based algorithmic tools used to inform decisions
by criminal justice authorities can create serious constitutional dangers,
enhancing the likelihood of abuse of decision-making power and the scope and
magnitude of injustice. Drawing on three algorithmic tools in use, or recently
used, to assess the "risk" posed by individuals to inform how they should be
treated by criminal justice authorities, we integrate insights from data
science and public law scholarship to show how public law principles and more
specific legal duties that are rooted in these principles, are routinely
overlooked in algorithmic tool-building and implementation. We argue that
technical developers must collaborate closely with public law experts to ensure
that if algorithmic decision-support tools are to inform criminal justice
decisions, those tools are configured and implemented in a manner that is
demonstrably compliant with public law principles and doctrine, including
respect for human rights, throughout the tool-building process.
- Abstract(参考訳): この2つの論文は、犯罪司法当局による決定を知らせるために使用される機械学習ベースのアルゴリズムツールの開発者による「技術的」な選択は、重大な憲法上の危険を生じさせ、意思決定力の乱用の可能性と不当な範囲と大きさを高めることができると主張している。
刑事司法当局がどのように扱うべきかを個人が知らせる「リスク」を評価するために使われる3つのアルゴリズムツールについて、我々はデータサイエンスと公共法奨学金の洞察を統合し、これらの原則に根ざした公共法原則とより具体的な法的義務がアルゴリズム的ツール構築と実装において日常的に見過ごされていることを示す。
技術開発者は、もしアルゴリズムによる決定支援ツールが刑事司法決定を知らせるならば、これらのツールは、ツール構築プロセスを通して、公法原則や人権の尊重を含む原則に明らかに準拠した方法で構成され、実装されるように、公法専門家と密接に協力する必要がある、と我々は主張する。
関連論文リスト
- Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers? Part II [0.0]
マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-11T20:54:49Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Beyond Ads: Sequential Decision-Making Algorithms in Law and Public
Policy [2.762239258559568]
法と公共政策にシーケンシャルな意思決定アルゴリズムを採用するという約束と課題について検討する。
我々の主なテーマは、法律と公共政策が、機械学習コミュニティがまだ対応していない、異なる方法論上の課題を提起することです。
規制とガバナンスにおけるシーケンシャルな意思決定アルゴリズムの幅広い応用について論じる。
論文 参考訳(メタデータ) (2021-12-13T17:45:21Z) - The Flaws of Policies Requiring Human Oversight of Government Algorithms [2.741266294612776]
政府のアルゴリズムを規制する中心的なメカニズムとして、人的監督から制度的監督への転換を提案する。
まず、政府機関はアルゴリズムを意思決定に組み込むのが適切であることを正当化しなければならない。
第二に、これらの正当化は、政府機関がアルゴリズムを採用する前に、民主的な公開レビューと承認を受けなければならない。
論文 参考訳(メタデータ) (2021-09-10T18:58:45Z) - Audit and Assurance of AI Algorithms: A framework to ensure ethical
algorithmic practices in Artificial Intelligence [0.0]
アメリカには、厳格な法律の禁止や、損傷を測定するための特定のプロトコルが欠けている。
自動運転車や銀行から医療、住宅、そして法的な決定に至るまで、もうすぐ膨大な量のアルゴリズムが存在する。
政府、企業、社会はアルゴリズム監査を受け、アルゴリズムが合法的で倫理的かつ安全であることを体系的に検証する。
論文 参考訳(メタデータ) (2021-07-14T15:16:40Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。