論文の概要: Transparency, Compliance, And Contestability When Code Is(n't) Law
- arxiv url: http://arxiv.org/abs/2205.03925v2
- Date: Tue, 27 Sep 2022 16:52:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:45:40.548996
- Title: Transparency, Compliance, And Contestability When Code Is(n't) Law
- Title(参考訳): コードが法則であるときの透明性、コンプライアンス、信頼性
- Authors: Alexander Hicks
- Abstract要約: 技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
- 参考スコア(独自算出の注目度): 91.85674537754346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both technical security mechanisms and legal processes serve as mechanisms to
deal with misbehaviour according to a set of norms. While they share general
similarities, there are also clear differences in how they are defined, act,
and the effect they have on subjects. This paper considers the similarities and
differences between both types of mechanisms as ways of dealing with
misbehaviour, and where they interact with each other.
Taking into consideration the idea of code as law, we discuss accountability
mechanisms for code, and how they must relate to both security principles and
legal principles. In particular, we identify the ability to contest norms
enforced by code as an important part of accountability in this context. Based
on this analysis, we make the case for transparency enhancing technologies as
security mechanisms that can support legal processes, in contrast to other
types of accountability mechanisms for code. We illustrate this through two
examples based on recent court cases that involved Post Office in the United
Kingdom and Uber in the Netherlands, and discuss some practical considerations.
- Abstract(参考訳): 技術的セキュリティメカニズムと法的プロセスの両方が、一連の規範に従って誤動作に対処するメカニズムとして機能する。
一般的な類似性は共有しているが、定義方法、行動方法、対象に対する効果にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の扱い方と,相互に作用する場所として考察する。
コード・アズ・ローの考え方を考慮し、コードの説明責任メカニズムと、セキュリティ原則と法原則の両方との関連性について論じる。
特に、この文脈で説明責任の重要な部分として、コードによって強制される規範に挑戦する能力を特定する。
この分析に基づいて、コードに対する他のタイプの説明責任メカニズムとは対照的に、法的なプロセスをサポートするセキュリティメカニズムとしての透明性向上技術について論じる。
この2つの事例は、イギリスの郵便局とオランダのUberに関わる最近の訴訟に基づいて説明し、いくつかの実践的考察について論じる。
関連論文リスト
- The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - ACROCPoLis: A Descriptive Framework for Making Sense of Fairness [6.4686347616068005]
本研究では,アロケーションプロセスを表現するためのACROCPoLisフレームワークを提案する。
このフレームワークは、異なる状況や手順に対する公平性評価に関連する要因を明示する共有語彙を提供する。
論文 参考訳(メタデータ) (2023-04-19T21:14:57Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Fairness and Explainability in Automatic Decision-Making Systems. A
challenge for computer science and law [3.656085108168043]
本稿では,自動アルゴリズム決定における公平性問題を分析するための学際的構造に貢献する。
第1節は、教師付き学習における技術的な選択が、考慮すべき社会的意味を持っていることを示している。
第2節では、意図しない集団差別の問題に対する文脈的アプローチを提案する。
論文 参考訳(メタデータ) (2022-05-14T01:08:47Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。