論文の概要: Non-Determinism and the Lawlessness of ML Code
- arxiv url: http://arxiv.org/abs/2206.11834v1
- Date: Thu, 23 Jun 2022 17:05:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 14:55:06.801927
- Title: Non-Determinism and the Lawlessness of ML Code
- Title(参考訳): 非決定論とMLコードの無法性
- Authors: A. Feder Cooper and Jonathan Frankle and Christopher De Sa
- Abstract要約: 我々は,非決定主義の影響と,その結果法に含める影響が,MLアウトプットの推論の観点からより明確になることを示す。
我々は、MLコードが「コード・アズ・ロー」を扱うサイバー法枠の外にあることを実証した。
我々は、非決定性による潜在的に有害な影響を抑えるためにMLができることについて、簡単な議論で結論付けた。
- 参考スコア(独自算出の注目度): 46.23202356314838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal literature on machine learning (ML) tends to focus on harms, and as a
result tends to reason about individual model outcomes and summary error rates.
This focus on model-level outcomes and errors has masked important aspects of
ML that are rooted in its inherent non-determinism. We show that the effects of
non-determinism, and consequently its implications for the law, instead become
clearer from the perspective of reasoning about ML outputs as probability
distributions over possible outcomes. This distributional viewpoint accounts
for non-determinism by emphasizing the possible outcomes of ML. Importantly,
this type of reasoning is not exclusive with current legal reasoning; it
complements (and in fact can strengthen) analyses concerning individual,
concrete outcomes for specific automated decisions. By clarifying the important
role of non-determinism, we demonstrate that ML code falls outside of the
cyberlaw frame of treating "code as law," as this frame assumes that code is
deterministic. We conclude with a brief discussion of what work ML can do to
constrain the potentially harm-inducing effects of non-determinism, and we
clarify where the law must do work to bridge the gap between its current
individual-outcome focus and the distributional approach that we recommend.
- Abstract(参考訳): 機械学習(ML)に関する法的文献は害に焦点をあてる傾向があり、その結果、個々のモデルの結果と要約エラー率について推論する傾向にある。
このモデルレベルの結果とエラーは、その固有の非決定論に根ざしたMLの重要な側面を隠蔽している。
その結果, ml出力を確率分布として推定する観点からは, 非決定性の影響やその法則への影響がより明確になることが示された。
この分布的視点は、MLの可能な結果を強調することで非決定論を説明できる。
重要なことは、この種の推論は、現在の法的推論に排他的ではなく、特定の自動決定のための個々の具体的な結果に関する分析を補完する(そして、実際に強化することができる)。
非決定論の重要な役割を明らかにすることで、mlコードは「法則としてのコード」を扱うというサイバールールの枠の外にあることを実証する。
我々は、MLが非決定主義の潜在的害をもたらす影響を抑えるために何ができるかを簡潔に議論し、法が現在の個人利益の焦点と我々が推奨する分散的アプローチとのギャップを埋めるためにどこで機能すべきかを明らかにする。
関連論文リスト
- A Closer Look at the Self-Verification Abilities of Large Language
Models in Logical Reasoning [79.14479982371984]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - On Prediction-Modelers and Decision-Makers: Why Fairness Requires More
Than a Fair Prediction Model [1.3996171129586732]
予測に基づく意思決定の分野における暗黙の曖昧さは、予測の概念と決定の関係を考察する。
これら2つの要素が予測に基づく決定システムの最終的な公平性にどう影響するかを示す。
本稿では,予測に基づく意思決定において公平性を生み出す概念論理の理解と推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:34:42Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - Actual Causality and Responsibility Attribution in Decentralized
Partially Observable Markov Decision Processes [22.408657774650358]
我々はこれらの概念を、不確実性の下でのマルチエージェントシーケンシャルな意思決定のための広く使われている枠組みの下で研究する。
実際の因果関係は特定の結果に焦点を当て、関心の成果を実現する上で重要な決定(行動)を識別することを目的としている。
責任帰属(Responsibility attribution)は相補的であり、意思決定者(エージェント)がこの結果にどの程度の責任を持つかを特定することを目的としている。
論文 参考訳(メタデータ) (2022-04-01T09:22:58Z) - Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint) [0.0]
雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
論文 参考訳(メタデータ) (2021-08-16T06:41:39Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Fairness Under Feature Exemptions: Counterfactual and Observational
Measures [34.5472206536785]
本稿では,2つの成分に相違点を分解する情報理論を提案する。
非例外成分は、臨界特徴によって説明できない部分を定量化し、例外成分は残りの格差を定量化する。
非免除格差を減らしながら、モデルを監査/トレーニングする方法を示すケーススタディを実行します。
論文 参考訳(メタデータ) (2020-06-14T19:14:00Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。