論文の概要: Are ChatGPT and Other Similar Systems the Modern Lernaean Hydras of AI?
- arxiv url: http://arxiv.org/abs/2306.09267v1
- Date: Thu, 15 Jun 2023 16:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:46:19.947688
- Title: Are ChatGPT and Other Similar Systems the Modern Lernaean Hydras of AI?
- Title(参考訳): ChatGPTとその他の類似システムはAIの現代ルネサンスハイドラか?
- Authors: Dimitrios Ioannidis, Jeremy Kepner, Andrew Bowne, Harriet S. Bryant
- Abstract要約: AIシステムは、数十年にわたって開発者が作成したオープンソースコードの巨大なライブラリにアクセスすることで、質問や要求に対する応答(出力)を提供する。
どのようにしてこのようなことが起こるのか、そして、イノベーションを保護できる何年にもわたって訴訟の解決が、この記事の焦点である。
a) 開発者が作成したオープンソースコードのライセンスの即時変更により、人間のみへのオープンソースコードのアクセスおよび/または使用が可能になります。 (b) AIシステムがオープンソースから適切なライセンスを取得するために、マサチューセッツ工科大学(MIT)ライセンスの改訂を提案します。
- 参考スコア(独自算出の注目度): 2.457872341625575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rise of Generative Artificial Intelligence systems (``AI systems'') has
created unprecedented social engagement. AI code generation systems provide
responses (output) to questions or requests by accessing the vast library of
open-source code created by developers over decades. However, they do so by
allegedly stealing the open-source code stored in virtual libraries, known as
repositories. How all this happens and whether there is a solution short of
years of litigation that can protect innovation is the focus of this article.
We also peripherally touch upon the array of issues raised by the relationship
between AI and copyright. Looking ahead, we propose the following: (a)
immediate changes to the licenses for open-source code created by developers
that will allow access and/or use of any open-source code to humans only; (b)
we suggest revisions to the Massachusetts Institute of Technology (``MIT'')
license so that AI systems procure appropriate licenses from open-source code
developers, which we believe will harmonize standards and build social
consensus for the benefit of all of humanity rather than profit-driven centers
of innovation; (c) We call for urgent legislative action to protect the future
of AI systems while also promoting innovation; and (d) we propose that there is
a shift in the burden of proof to AI systems in obfuscation cases.
- Abstract(参考訳): 生成人工知能システム(「AIシステム」)の台頭は、前例のない社会的関与を生み出した。
AIコード生成システムは、数十年にわたって開発者が作成した膨大なオープンソースコードライブラリにアクセスすることで、質問や要求に対する応答(出力)を提供する。
しかし、リポジトリとして知られる仮想ライブラリに格納されているオープンソースコードを盗むことで、そうする。
どのようにしてこのようなことが起こるのか、そして、イノベーションを保護できる数年の訴訟の解決策があるかどうかがこの記事の焦点です。
また、AIと著作権の関係によって引き起こされたさまざまな問題にも触れています。
先を見据えて次のように提案する。
(a) 開発者が作成したオープンソースコードのライセンスを直ちに変更し、人間のみのオープンソースコードへのアクセス及び/又は使用を可能にすること。
b) マサチューセッツ工科大学(MIT')ライセンスの改訂を提案し、AIシステムがオープンソースコード開発者から適切なライセンスを取得できるようにし、標準を調和させ、イノベーションの利益主導の中心ではなく、すべての人類の利益のために社会的コンセンサスを構築すると信じている。
(c)我々は、イノベーションを推進しつつ、AIシステムの将来を守るための緊急立法措置を求める。
(d)難解なケースでは,AIシステムへの証明の負担の増大が示唆されている。
関連論文リスト
- OML: Open, Monetizable, and Loyal AI [39.63122342758896]
OML は Open, Monetizable, Loyal AI の略である。
OMLはAI開発を民主化するためのアプローチである。
私たちの研究の重要なイノベーションは、新たな科学分野であるAIネイティブ暗号の導入です。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - AI and the EU Digital Markets Act: Addressing the Risks of Bigness in
Generative AI [4.889410481341167]
本稿では、特定のAIソフトウェアをコアプラットフォームサービスとして統合し、特定の開発者をDMAの下でゲートキーパーとして分類する。
EUは、生成AI固有のルールとDMA修正の可能性を検討するため、生成AIサービスの多様性とオープン性に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-07-07T16:50:08Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。