論文の概要: The Case for Contextual Copyleft: Licensing Open Source Training Data and Generative AI
- arxiv url: http://arxiv.org/abs/2507.12713v1
- Date: Thu, 17 Jul 2025 01:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.313951
- Title: The Case for Contextual Copyleft: Licensing Open Source Training Data and Generative AI
- Title(参考訳): 文脈コピレフトの事例:オープンソーストレーニングデータと生成AIのライセンス化
- Authors: Grant Shanklin, Emmie Hine, Claudio Novelli, Tyler Schroder, Luciano Floridi,
- Abstract要約: この記事では、トレーニングデータから生成された生成AIモデルへのコピーレフト要求を拡張する、新しいライセンスメカニズムである、Contextual Copyleft AI(CCAI)ライセンスを紹介します。
CCAIライセンスは、開発者コントロールの強化、オープンソースAI開発のインセンティブ化、オープン洗浄プラクティスの緩和など、大きなアドバンテージを提供する。
- 参考スコア(独自算出の注目度): 1.2776470520481564
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The proliferation of generative AI systems has created new challenges for the Free and Open Source Software (FOSS) community, particularly regarding how traditional copyleft principles should apply when open source code is used to train AI models. This article introduces the Contextual Copyleft AI (CCAI) license, a novel licensing mechanism that extends copyleft requirements from training data to the resulting generative AI models. The CCAI license offers significant advantages, including enhanced developer control, incentivization of open source AI development, and mitigation of openwashing practices. This is demonstrated through a structured three-part evaluation framework that examines (1) legal feasibility under current copyright law, (2) policy justification comparing traditional software and AI contexts, and (3) synthesis of cross-contextual benefits and risks. However, the increased risk profile of open source AI, particularly the potential for direct misuse, necessitates complementary regulatory approaches to achieve an appropriate risk-benefit balance. The paper concludes that when implemented within a robust regulatory environment focused on responsible AI usage, the CCAI license provides a viable mechanism for preserving and adapting core FOSS principles to the evolving landscape of generative AI development.
- Abstract(参考訳): 生成AIシステムの普及は、特にオープンソースコードがAIモデルをトレーニングするために使用される場合、従来のコピーレフト原則をどのように適用すべきかに関して、Free and Open Source Software(FOSS)コミュニティに新たな課題を生み出した。
この記事では、トレーニングデータから生成された生成AIモデルへのコピーレフト要求を拡張する、新しいライセンスメカニズムである、Contextual Copyleft AI(CCAI)ライセンスを紹介します。
CCAIライセンスは、開発者コントロールの強化、オープンソースAI開発のインセンティブ化、オープン洗浄プラクティスの緩和など、大きなアドバンテージを提供する。
これは,(1)現行の著作権法の下での法的実現可能性,(2)従来のソフトウェアとAIの文脈を比較した政策正当性,(3)コンテキスト間利益とリスクの総合性を検証した構造化三部評価枠組みを通じて実証される。
しかし、オープンソースAIのリスクプロファイルの増加、特に直接的な誤用の可能性は、適切なリスクと利益のバランスを達成するために補完的な規制アプローチを必要とする。
この論文は、責任あるAI利用に焦点を当てた堅牢な規制環境内に実装されると、CCAIライセンスは、生成的AI開発の進化の風景にコアFOSS原則を保存し、適応するための実行可能なメカニズムを提供する、と結論付けている。
関連論文リスト
- Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - On the modification and revocation of open source licences [0.14843690728081999]
本稿では、オープンソースコントリビュータがユーザに最新のモデルの更新を強制する権利のサブセットを作成することを主張する。
オープンソースAIモデルに関連する法的、評判、道徳的なリスクは、下流の使用をもっとコントロールできるコントリビュータを正当化する可能性がある。
論文 参考訳(メタデータ) (2024-05-29T00:00:25Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Uncertain Boundaries: Multidisciplinary Approaches to Copyright Issues in Generative AI [2.2780130786778665]
著作権のある素材のほぼレプリカを生成する生成AIモデルは、現在の法的枠組みを適用する必要性を強調している。
AIにおける著作権に関する既存の研究は、純粋にコンピュータ科学または法に基づくアプローチを採用している。
この調査は、法、政策、経済学、コンピュータ科学から洞察を総合的に合成するアプローチを採用する。
論文 参考訳(メタデータ) (2024-03-31T22:10:01Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Open-Sourcing Highly Capable Foundation Models: An evaluation of risks,
benefits, and alternative methods for pursuing open-source objectives [6.575445633821399]
AIラボをオープンソースにするか、あるいはモデルへのアクセスを制限するという最近の決定は、議論を巻き起こした。
本稿では,高機能基盤モデルのオープンソース化のリスクとメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-29T17:03:45Z) - Are ChatGPT and Other Similar Systems the Modern Lernaean Hydras of AI? [1.3961068233384444]
生成人工知能システム(AIシステム)は、前例のない社会的関与を生み出している。
彼らはリポジトリとして知られる仮想ライブラリに格納されているオープンソースコードを盗んだと言われている。
本条では, イノベーションを保護し, 長年の訴訟を回避できる解決策が存在するかどうかを論じる。
論文 参考訳(メタデータ) (2023-06-15T16:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。