論文の概要: Label Indeterminacy in AI & Law
- arxiv url: http://arxiv.org/abs/2510.17463v1
- Date: Mon, 20 Oct 2025 11:58:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.440104
- Title: Label Indeterminacy in AI & Law
- Title(参考訳): AIと法におけるラベルの不確定性
- Authors: Cor Steging, Tadeusz Zbiegień,
- Abstract要約: 法的な機械学習アプリケーションはラベルの不確定性を考慮する必要があると我々は主張する。
トレーニング中にラベルを構築する方法がモデル動作に大きく影響することを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning is increasingly used in the legal domain, where it typically operates retrospectively by treating past case outcomes as ground truth. However, legal outcomes are often shaped by human interventions that are not captured in most machine learning approaches. A final decision may result from a settlement, an appeal, or other procedural actions. This creates label indeterminacy: the outcome could have been different if the intervention had or had not taken place. We argue that legal machine learning applications need to account for label indeterminacy. Methods exist that can impute these indeterminate labels, but they are all grounded in unverifiable assumptions. In the context of classifying cases from the European Court of Human Rights, we show that the way that labels are constructed during training can significantly affect model behaviour. We therefore position label indeterminacy as a relevant concern in AI & Law and demonstrate how it can shape model behaviour.
- Abstract(参考訳): マシンラーニングは、過去の事例結果を根拠となる真実として扱うことで、通常、振り返り的に運用される法律分野において、ますます使用されている。
しかしながら、法的結果はしばしば、ほとんどの機械学習アプローチでは捉えられない人間の介入によって形成されます。
最終決定は,和解,上訴,その他の手続的行為から下すことができる。
これはラベルの不確定性を生み出し、介入があったか、行われなかったかは結果が異なる可能性がある。
法的な機械学習アプリケーションはラベルの不確定性を考慮する必要があると我々は主張する。
これらの不確定なラベルを暗示する手法は存在するが、これらは全て検証不可能な仮定に基づいている。
欧州人権裁判所のケース分類の文脈では、トレーニング中にラベルを構築する方法がモデル行動に大きく影響することを示します。
そこで我々は、ラベルの不確定性をAI & Lawの関連する関心事として位置づけ、モデル行動をどのように形成できるかを実証する。
関連論文リスト
- The Silicon Reasonable Person: Can AI Predict How Ordinary People Judge Reasonableness? [0.0]
本稿では,大規模言語モデル(LLM)が人間の合理的性判断を駆動するパターンを識別できることを考察する。
特定のモデルが表面レベルの応答だけでなく,その基盤となる決定的アーキテクチャも捉えていることを示す。
裁判官はより広いパターンに対して直感を調整でき、議員は政策解釈をテストでき、資源制約のある訴訟員は議論の受理をプレビューできる。
論文 参考訳(メタデータ) (2025-08-04T06:19:45Z) - Weakly-Supervised Contrastive Learning for Imprecise Class Labels [50.57424331797865]
正対と負対を定義するために「連続的意味的類似性」の概念を導入する。
弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
論文 参考訳(メタデータ) (2025-05-28T06:50:40Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - The Ethics of Automating Legal Actors [58.81546227716182]
我々は、裁判官の役割の自動化は、特に一般的な法体系において、難しい倫理的課題を提起すると主張している。
我々の主張は、単に法律を適用するのではなく、法律を積極的に形成する際の裁判官の社会的役割から従う。
モデルが人間レベルの能力を達成できたとしても、法的プロセスの自動化に固有の倫理的懸念は残るだろう。
論文 参考訳(メタデータ) (2023-12-01T13:48:46Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Non-Determinism and the Lawlessness of Machine Learning Code [43.662736664344095]
我々は,非決定主義の影響と,その結果法に含める影響が,MLアウトプットの分布としての推論の観点からより明確になることを示す。
我々は、非決定性による潜在的に有害な影響を抑えるためにMLができることについて、簡単な議論で結論付けた。
論文 参考訳(メタデータ) (2022-06-23T17:05:34Z) - When Is It Acceptable to Break the Rules? Knowledge Representation of
Moral Judgement Based on Empirical Data [33.58705831230163]
人間の道徳心に関する最も注目すべきことの1つは、その柔軟性です。
今まで見たことのない事件について道徳的な判断を下すことができる。
事前に確立されたルールが破られるべきだと判断できる。
この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。
論文 参考訳(メタデータ) (2022-01-19T17:58:42Z) - Learning with Proper Partial Labels [87.65718705642819]
部分ラベル学習は、不正確なラベルを持つ弱い教師付き学習の一種である。
この適切な部分ラベル学習フレームワークには,従来の部分ラベル学習設定が数多く含まれていることを示す。
次に、分類リスクの統一的非バイアス推定器を導出する。
論文 参考訳(メタデータ) (2021-12-23T01:37:03Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - A Ranking Approach to Fair Classification [11.35838396538348]
アルゴリズムによる意思決定システムは、雇用、学校入学、ローン承認などの分野でますます使われている。
多くのシナリオでは、ゼロ・トゥルース・ラベルは利用できなくなり、代わりに人間による決定の結果、不完全なラベルにしかアクセスできません。
本稿では,従来の分類アルゴリズムの代替として,公平なランク付けに基づく意思決定システムを提案する。
論文 参考訳(メタデータ) (2021-02-08T22:51:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。