論文の概要: An Impact Model of AI on the Principles of Justice: Encompassing the
Autonomous Levels of AI Legal Reasoning
- arxiv url: http://arxiv.org/abs/2008.12615v1
- Date: Wed, 26 Aug 2020 22:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:06:14.452288
- Title: An Impact Model of AI on the Principles of Justice: Encompassing the
Autonomous Levels of AI Legal Reasoning
- Title(参考訳): 正義の原理に対するAIの影響モデル:AI法理推論の自律的レベルを克服する
- Authors: Lance Eliot
- Abstract要約: 既存のおよび将来の法的活動と司法構造へのAIの注入は、正義の中核的な原則と慎重に一致させることによって行われる必要がある、と論じられている。
AI法理推論の自律性レベル(LoA)における正義の原則を調べることで、AIの開発とデプロイの取り組みに根ざした緊張が進行中である、という主張がなされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efforts furthering the advancement of Artificial Intelligence (AI) will
increasingly encompass AI Legal Reasoning (AILR) as a crucial element in the
practice of law. It is argued in this research paper that the infusion of AI
into existing and future legal activities and the judicial structure needs to
be undertaken by mindfully observing an alignment with the core principles of
justice. As such, the adoption of AI has a profound twofold possibility of
either usurping the principles of justice, doing so in a Dystopian manner, and
yet also capable to bolster the principles of justice, doing so in a Utopian
way. By examining the principles of justice across the Levels of Autonomy (LoA)
of AI Legal Reasoning, the case is made that there is an ongoing tension
underlying the efforts to develop and deploy AI that can demonstrably determine
the impacts and sway upon each core principle of justice and the collective
set.
- Abstract(参考訳): 人工知能(AI)の進歩をさらに進める努力は、法律の実践において重要な要素としてAILR(AI Legal Reasoning)を包含するようになる。
この研究論文では、AIの既存および将来の法的活動への注入と司法構造は、正義の中核的な原則を慎重に観察することによって行う必要があると論じられている。
このように、AIの採用は、正義の原則をつかむか、ディストピア的な方法でそれを行うか、あるいはユートピア的な方法で正義の原則を補強する可能性の2倍の可能性を秘めている。
AI法理推論のレベル・オブ・オートノミー(LoA)における正義の原則を調べることで、正義と集合集合のそれぞれの中核原理に対する影響を実証的に決定できるAIを開発し、展開する努力の根底にある緊張が続いていると判断される。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - AI and Legal Argumentation: Aligning the Autonomous Levels of AI Legal
Reasoning [0.0]
法的議論は正義の重要な基盤であり、敵対的な法の形を支えている。
広範囲にわたる研究は、人工知能(AI)を含むコンピュータベースの自動化を使用して、法的議論を拡大または実施しようと試みている。
AI法則推論のLevels of Autonomy(LoA)をAIの成熟と法体系化(AILA)に適用するために、革新的なメタアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T22:05:40Z) - Turing Test and the Practice of Law: The Role of Autonomous Levels of AI
Legal Reasoning [0.0]
本稿では,AILR領域で特定の用途にカスタマイズされたチューリングテストの変種を提案する。
これは、この有名なAIフルフィルメントのゴールドスタンダードが、自律的なAI法則推論のレベルにわたって堅牢に適用可能であることを示している。
論文 参考訳(メタデータ) (2020-08-18T04:50:23Z) - An Ontological AI-and-Law Framework for the Autonomous Levels of AI
Legal Reasoning [0.0]
人工知能と法的な推論の領域を明確にした、堅牢な自律レベルのセットを特定し、確立するためのフレームワークが提案されている。
AIと法的な推論のための7つのレベルの自律性は、慎重に議論され、慎重に議論されている。
論文 参考訳(メタデータ) (2020-08-04T16:12:30Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。