論文の概要: The Danger of Reverse-Engineering of Automated Judicial Decision-Making
Systems
- arxiv url: http://arxiv.org/abs/2012.10301v1
- Date: Fri, 18 Dec 2020 15:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 17:59:11.604019
- Title: The Danger of Reverse-Engineering of Automated Judicial Decision-Making
Systems
- Title(参考訳): 自動司法意思決定システムのリバースエンジニアリングの危険性
- Authors: Masha Medvedeva, Martijn Wieling and Michel Vols
- Abstract要約: 本稿では、人権侵害の可能性がある状況において、機械学習を用いた司法意思決定の意義について論じる。
このような状況下でのツールの使用は、固有の現状のバイアスとリバースエンジニアリングの危険性のために制限されるべきである。
- 参考スコア(独自算出の注目度): 0.6015898117103068
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we discuss the implications of using machine learning for
judicial decision-making in situations where human rights may be infringed. We
argue that the use of such tools in these situations should be limited due to
inherent status quo bias and dangers of reverse-engineering. We discuss that
these issues already exist in the judicial systems without using machine
learning tools, but how introducing them might exacerbate them.
- Abstract(参考訳): 本稿では、人権侵害の可能性がある状況において、司法判断に機械学習を用いることの意味について論じる。
このような状況におけるこのようなツールの使用は、現状の偏見やリバースエンジニアリングの危険性によって制限されるべきである。
機械学習ツールを使わずに、これらの問題が司法システムにすでに存在していることを議論する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - How do "technical" design-choices made when building algorithmic
decision-making tools for criminal justice authorities create constitutional
dangers? Part II [0.0]
マシンラーニングベースのアルゴリズムツールの開発者による、一見“技術的”な選択は、重大な憲法上の危険を生み出す可能性がある、と私たちは主張する。
我々は,公法原則とより具体的な法的義務が,アルゴリズムツールの構築と実装において日常的に見過ごされていることを示す。
技術開発者は、アルゴリズムによる意思決定支援ツールが、公法原則や教義に明らかに準拠するような方法で構成され、実装されることを保証するために、公法の専門家と緊密に協力する必要がある、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-11T20:54:49Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - The Dangers of Computational Law and Cybersecurity; Perspectives from
Engineering and the AI Act [1.332091725929965]
計算法は、しばらくの間予測されていた社会において役割を担ってきた。
本稿では,既知の課題を概観し,設計から物理領域まで,さまざまなレベルで議論する。
計算法則がグローバルに機能するために必要な3つの勧告を提示する。
論文 参考訳(メタデータ) (2022-07-01T09:42:11Z) - Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act [8.890638003061605]
法医学的画像解析における機械学習の利用が、なぜハイリスクに分類されるのかを概観する。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
論文 参考訳(メタデータ) (2022-03-01T14:03:23Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Politics of Adversarial Machine Learning [0.7837881800517111]
敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-02-01T01:15:39Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。