論文の概要: Are ChatGPT and Other Similar Systems the Modern Lernaean Hydras of AI?
- arxiv url: http://arxiv.org/abs/2306.09267v3
- Date: Tue, 30 Jan 2024 18:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 19:31:55.451805
- Title: Are ChatGPT and Other Similar Systems the Modern Lernaean Hydras of AI?
- Title(参考訳): ChatGPTとその他の類似システムはAIの現代ルネサンスハイドラか?
- Authors: Dimitrios Ioannidis, Jeremy Kepner, Andrew Bowne, Harriet S. Bryant
- Abstract要約: 生成人工知能システム(AIシステム)は、前例のない社会的関与を生み出している。
彼らはリポジトリとして知られる仮想ライブラリに格納されているオープンソースコードを盗んだと言われている。
本条では, イノベーションを保護し, 長年の訴訟を回避できる解決策が存在するかどうかを論じる。
- 参考スコア(独自算出の注目度): 1.3961068233384444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of Generative Artificial Intelligence systems ("AI systems") has
created unprecedented social engagement. AI code generation systems provide
responses (output) to questions or requests by accessing the vast library of
open-source code created by developers over the past few decades. However, they
do so by allegedly stealing the open-source code stored in virtual libraries,
known as repositories. This Article focuses on how this happens and whether
there is a solution that protects innovation and avoids years of litigation. We
also touch upon the array of issues raised by the relationship between AI and
copyright. Looking ahead, we propose the following: (a) immediate changes to
the licenses for open-source code created by developers that will limit access
and/or use of any open-source code to humans only; (b) we suggest revisions to
the Massachusetts Institute of Technology ("MIT") license so that AI systems
are required to procure appropriate licenses from open-source code developers,
which we believe will harmonize standards and build social consensus for the
benefit of all of humanity, rather than promote profit-driven centers of
innovation; (c) we call for urgent legislative action to protect the future of
AI systems while also promoting innovation; and (d) we propose a shift in the
burden of proof to AI systems in obfuscation cases.
- Abstract(参考訳): 生成人工知能システム(AIシステム)の台頭は、前例のない社会的関与を生み出した。
AIコード生成システムは、過去数十年にわたって開発者が作成した膨大なオープンソースコードライブラリにアクセスすることで、質問や要求に対する応答(出力)を提供する。
しかし、リポジトリとして知られる仮想ライブラリに格納されているオープンソースコードを盗むことで、そうする。
本条では, イノベーションを保護し, 長年の訴訟を回避できる解決策が存在するかどうかを論じる。
AIと著作権の関係によって引き起こされたさまざまな問題にも触れる。
先を見据えて次のように提案する。
(a) 開発者が作成するオープンソースコードのライセンスを直ちに変更し、人間にのみオープンソースコードへのアクセス及び/又は使用を制限すること。
b)我々は、マサチューセッツ工科大学(mit)のライセンスを改訂して、aiシステムがオープンソースコード開発者から適切なライセンスを取得する必要があることを提案します。
(c)我々は、AIシステムの将来を守りつつ、イノベーションを推進するための緊急の立法措置を求める。
(d)難読ケースにおけるAIシステムへの証明の負担のシフトを提案する。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - AI and the EU Digital Markets Act: Addressing the Risks of Bigness in
Generative AI [4.889410481341167]
本稿では、特定のAIソフトウェアをコアプラットフォームサービスとして統合し、特定の開発者をDMAの下でゲートキーパーとして分類する。
EUは、生成AI固有のルールとDMA修正の可能性を検討するため、生成AIサービスの多様性とオープン性に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-07-07T16:50:08Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Time for AI (Ethics) Maturity Model Is Now [15.870654219935972]
この記事では、AIソフトウェアはまだソフトウェアであり、ソフトウェア開発の観点からアプローチする必要がある、と論じる。
我々は、AI倫理に重点を置くべきか、それともより広く、AIシステムの品質に重点を置くべきかを議論したい。
論文 参考訳(メタデータ) (2021-01-29T17:37:44Z) - Behavioral Use Licensing for Responsible AI [11.821476868900506]
我々は、ソフトウェアとコードに対する法的に強制可能な行動利用条件を可能にするために、ライセンスの使用を提唱する。
我々は、既存の責任あるAIガイドラインに従って、ライセンスがどのように実装されるかを考えます。
論文 参考訳(メタデータ) (2020-11-04T09:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。