論文の概要: The Self-Driving Car: Crossroads at the Bleeding Edge of Artificial
Intelligence and Law
- arxiv url: http://arxiv.org/abs/2202.02734v1
- Date: Sun, 6 Feb 2022 08:38:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 10:58:25.596491
- Title: The Self-Driving Car: Crossroads at the Bleeding Edge of Artificial
Intelligence and Law
- Title(参考訳): 自動運転車:人工知能と法律の最先端を横断する
- Authors: Scott McLachlan, Evangelia Kyrimi, Kudakwashe Dube, Norman Fenton and
Burkhard Schafer
- Abstract要約: 既存の法則と提案された法則は、ほとんどまだ投機的で未検証であるSDVの主張された利点に基づいている。
新しい法則と規制は、SDCを有効化するための主要な要因として最もよく特定される。
SDCにおけるAIの影響を評価する研究は、怠慢と責任を超えて拡大する必要がある。
- 参考スコア(独自算出の注目度): 0.2519906683279152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) features are increasingly being embedded in cars
and are central to the operation of self-driving cars (SDC). There is little or
no effort expended towards understanding and assessing the broad legal and
regulatory impact of the decisions made by AI in cars. A comprehensive
literature review was conducted to determine the perceived barriers, benefits
and facilitating factors of SDC in order to help us understand the suitability
and limitations of existing and proposed law and regulation. (1) existing and
proposed laws are largely based on claimed benefits of SDV that are still
mostly speculative and untested; (2) while publicly presented as issues of
assigning blame and identifying who pays where the SDC is involved in an
accident, the barriers broadly intersect with almost every area of society,
laws and regulations; and (3) new law and regulation are most frequently
identified as the primary factor for enabling SDC. Research on assessing the
impact of AI in SDC needs to be broadened beyond negligence and liability to
encompass barriers, benefits and facilitating factors identified in this paper.
Results of this paper are significant in that they point to the need for deeper
comprehension of the broad impact of all existing law and regulations on the
introduction of SDC technology, with a focus on identifying only those areas
truly requiring ongoing legislative attention.
- Abstract(参考訳): 人工知能(AI)の機能は車に組み込まれ、自動運転車(SDC)の運用の中心となっている。
自動車におけるAIによる決定の広範な法的および規制的影響を理解し評価する努力は、ほとんど、あるいは全く行われていない。
既存の法と規制の適合性と限界を理解するために,sdcの持つ障壁,利益,促進要因を明らかにするため,包括的な文献レビューを行った。
1) 現行法及び提案法は主に,まだ投機的かつ未検証であるsdvの請求された利益に基づいており,(2)sdcが事故に関与している地域を非難し,誰が支払っているかを特定する問題として公に提示されているが,その障壁は,社会,法律,規制のほぼすべての領域と広く交わっており,(3)新しい法と規制がsdcを可能にする主要な要因として最も多く認識されている。
SDCにおけるAIの影響を評価する研究は、障壁、利益、そしてこの論文で特定された要因を包含するために、怠慢と責任を超えて拡張する必要がある。
本論文の成果は,既存の法律と規制がsdc技術の導入に与えた幅広い影響をより深く理解することの必要性を指摘し,それらの分野のみに法制上の注意を喚起することに焦点を当てている点において重要である。
関連論文リスト
- The Artificial Intelligence Act: critical overview [0.0]
この記事では、最近承認された人工知能法を概観する。
これはまず、2024/1689年のEU(Regulation)の主要な構造、目的、アプローチを示すことから始まる。
テキストは、全体的なフレームワークが適切かつバランスが取れたとしても、アプローチは非常に複雑であり、それ自体の目的を損なうリスクがある、と結論付けている。
論文 参考訳(メタデータ) (2024-08-30T21:38:02Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Legal Sentiment Analysis and Opinion Mining (LSAOM): Assimilating
Advances in Autonomous AI Legal Reasoning [0.0]
法的なセンチメント分析とオピニオンマイニング(LSAOM)は、法的議論と物語の基礎となる2つの現象と行動からなる。
LSAOMの実施への取り組みは、歴史的に人間の手と認知によって行われてきた。
特に自然言語処理(NLP)と機械学習(ML)を含む人工知能(AI)の進歩は、センティメント分析とオピニオンマイニングのいずれにおいても、自動化が体系的に実行可能であることを後押ししている。
論文 参考訳(メタデータ) (2020-10-02T04:15:21Z) - Authorized and Unauthorized Practices of Law: The Role of Autonomous
Levels of AI Legal Reasoning [0.0]
法分野は、認可された法律実務(APL)と無認可の法律実務(UPL)を定義することを目指している。
本稿では,AILR自律レベルに適用する上で,APLとUPLの基盤となる重要な特徴を記述した新たなインスツルメンタルグリッドについて検討する。
論文 参考訳(メタデータ) (2020-08-19T18:35:58Z) - Enhanced well-being assessment as basis for the practical implementation
of ethical and rights-based normative principles for AI [0.0]
本稿では,自律・知能システムを対象とした健康影響評価フレームワークの実用化について述べる。
このプロセスは、AIシステムの影響を理解するための、人間中心のアルゴリズム支援アプローチを可能にする。
論文 参考訳(メタデータ) (2020-07-29T13:26:05Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。