論文の概要: A Legal Risk Taxonomy for Generative Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2404.09479v1
- Date: Mon, 15 Apr 2024 06:05:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 13:48:50.458476
- Title: A Legal Risk Taxonomy for Generative Artificial Intelligence
- Title(参考訳): ジェネレーティブ人工知能のための法的リスク分類法
- Authors: David Atkinson, Jacob Morrison,
- Abstract要約: 本稿では、生成AI(GenAI)に関連する法的リスクの分類について述べる。
これは、GenAIモデルの開発とデプロイに関する潜在的な法的課題に関する共通の理解を提供する。
- 参考スコア(独自算出の注目度): 1.3651236252124068
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For the first time, this paper presents a taxonomy of legal risks associated with generative AI (GenAI) by breaking down complex legal concepts to provide a common understanding of potential legal challenges for developing and deploying GenAI models. The methodology is based on (1) examining the legal claims that have been filed in existing lawsuits and (2) evaluating the reasonably foreseeable legal claims that may be filed in future lawsuits. First, we identified 22 lawsuits against prominent GenAI entities and tallied the claims of each lawsuit. From there, we identified seven claims that are cited at least four times across these lawsuits as the most likely claims for future GenAI lawsuits. For each of these seven claims, we describe the elements of the claim (what the plaintiff must prove to prevail) and provide an example of how it may apply to GenAI. Next, we identified 30 other potential claims that we consider to be more speculative, because they have been included in fewer than four lawsuits or have yet to be filed. We further separated those 30 claims into 19 that are most likely to be made in relation to pre-deployment of GenAI models and 11 that are more likely to be made in connection with post-deployment of GenAI models since the legal risks will vary between entities that create versus deploy them. For each of these claims, we describe the elements of the claim and the potential remedies that plaintiffs may seek to help entities determine their legal risks in developing or deploying GenAI. Lastly, we close the paper by noting the novelty of GenAI technology and propose some applications for the paper's taxonomy in driving further research.
- Abstract(参考訳): 本稿では,ジェネレーションAI(GenAI)にかかわる法的リスクの分類を,複雑な法的概念を分解し,GenAIモデルの開発と展開における潜在的な法的課題の共通理解を提供する。
本手法は,(1)既存の訴訟において提起された法的主張を検証し,(2)将来の訴訟において提起される合理的な法的主張を評価することに基づく。
まず、著名なGenAI企業に対する22件の訴訟を特定し、各訴訟の主張を一致させた。
そこから我々は、これらの訴訟で少なくとも4回引用される7つの主張を、今後のGenAI訴訟の最も可能性の高い主張として特定した。
これら7つのクレームそれぞれについて、クレームの要素(原告が証明しなければならないこと)を記述し、GenAIにどのように適用されるかの例を示す。
次に、我々は、より投機的と思われる他の30の主張を特定した。なぜなら、それは4件未満の訴訟に含まれているか、まだ提出されていないためである。
我々はさらに、30件の請求を、GenAIモデルの事前デプロイに関連する可能性が高い19件と、GenAIモデルの後デプロイに関連する可能性が高い11件に分けました。
これらのクレームのそれぞれについて、原告がGenAIの開発と展開における法的リスクを決定するのに役立てるであろう主張の要素と潜在的な改善について述べる。
最後に、GenAI技術の新規性に注目して論文を閉じ、さらなる研究を進めるための論文の分類学へのいくつかの応用を提案する。
関連論文リスト
- Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Explainable Generative AI (GenXAI): A Survey, Conceptualization, and Research Agenda [1.8592384822257952]
我々は、XAIがGenAIの台頭とともに重要になった理由とその説明可能性研究の課題について詳述する。
私たちはまた、検証可能性、対話性、セキュリティ、コストといった側面をカバーし、説明が満たすべき新しいデシラタも披露します。
論文 参考訳(メタデータ) (2024-04-15T08:18:16Z) - Not All Similarities Are Created Equal: Leveraging Data-Driven Biases to Inform GenAI Copyright Disputes [20.237329910319293]
本稿では,GenAIモデルの学習能力を利用した著作権法解析手法を提案する。
我々は、GenAIによって作成された作品の汎用性を特定するためのデータ駆動型アプローチを提案する。
著作権法における表現的汎用性を測定することの潜在的意味は深い。
論文 参考訳(メタデータ) (2024-03-26T13:32:32Z) - Here Comes The AI Worm: Unleashing Zero-click Worms that Target GenAI-Powered Applications [6.904930679944526]
Morris IIは、敵対的な自己複製プロンプトを用いて、GenAIエコシステムをターゲットにした最初のワームである。
我々は、GenAIを利用した電子メールアシスタントに対するMoris IIの適用を2つのユースケースで実証した。
論文 参考訳(メタデータ) (2024-03-05T09:37:13Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Legal Question-Answering in the Indian Context: Efficacy, Challenges,
and Potential of Modern AI Models [3.552993426200889]
法的なQAプラットフォームは、法の専門家が法学的な文書を扱う方法を変えることを約束する。
本論文では,OpenAI GPTモデルを基準点として,検索とQA機構の配列をゼロとする。
本研究の根拠は、その複雑な性質と関連する論理的制約によって区別される、インドの刑事法的な景観と結びついている。
論文 参考訳(メタデータ) (2023-09-26T07:56:55Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Do Charge Prediction Models Learn Legal Theory? [59.74220430434435]
我々は、信頼できる電荷予測モデルが法的理論を考慮に入れるべきであると主張している。
本稿では,この課題に従わなければならない信頼に値するモデルの3つの原則を提案する。
以上の結果から,既存の電荷予測モデルはベンチマークデータセットの選択的原理に合致するが,そのほとんどが十分な感度が得られず,無害の予測を満たさないことが示唆された。
論文 参考訳(メタデータ) (2022-10-31T07:32:12Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。