論文の概要: Open Shouldn't Mean Exempt: Open-Source Exceptionalism and Generative AI
- arxiv url: http://arxiv.org/abs/2510.16048v1
- Date: Thu, 16 Oct 2025 18:21:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.803606
- Title: Open Shouldn't Mean Exempt: Open-Source Exceptionalism and Generative AI
- Title(参考訳): オープンソース例外主義とジェネレーティブAI
- Authors: David Atkinson,
- Abstract要約: この論文は「オープンソース例外主義」の一般的な正当性について批判的に考察する。
結論は、オープンソース開発者は、技術エコシステムの他のすべてのアクターと同じ法的および倫理的基準に守らなければならない、ということだ。
- 参考スコア(独自算出の注目度): 1.8256490853231881
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Any argument that open-source generative artificial intelligence (GenAI) is inherently ethical or legal solely because it is open source is flawed. Yet, this is the explicit or implicit stance of several open-source GenAI entities. This paper critically examines prevalent justifications for "open-source exceptionalism," demonstrating how contemporary open-source GenAI often inadvertently facilitates unlawful conduct and environmental degradation without genuinely disrupting established oligopolies. Furthermore, the paper exposes the unsubstantiated and strategic deployment of "democratization" and "innovation" rhetoric to advocate for regulatory exemptions not afforded to proprietary systems. The conclusion is that open-source developers must be held to the same legal and ethical standards as all other actors in the technological ecosystem. However, the paper proposes a narrowly tailored safe harbor designed to protect legitimate, non-commercial scientific research, contingent upon adherence to specific criteria. Ultimately, this paper advocates for a framework of responsible AI development, wherein openness is pursued within established ethical and legal boundaries, with due consideration for its broader societal implications.
- Abstract(参考訳): オープンソース生成人工知能(GenAI)は本質的に倫理的あるいは法的に、オープンソースであるからといって欠陥がある、という主張は何でもある。
しかし、これはいくつかのオープンソースのGenAIエンティティの明示的あるいは暗黙的なスタンスである。
本稿では,現代オープンソースであるGenAIが,既存のオリゴポリスを真に破壊することなく,不当に非合法な行為や環境劣化を助長していることを示す「オープンソース例外主義」の正当性について批判的に考察する。
さらに、「民主化」と「革新」のレトリックの未確立かつ戦略的展開を公開し、プロプライエタリなシステムに余裕のない規制免除を提唱する。
結論は、オープンソース開発者は、技術エコシステムの他のすべてのアクターと同じ法的および倫理的基準に守らなければならない、ということだ。
しかし,本論文では,特定の基準に従属する正当で非商業的な科学的研究を保護するために,狭義に調整された安全な港を提案する。
最終的に、本稿は、そのより広範な社会的含意を考慮し、確立された倫理的・法的境界内でオープン性を追求する、責任あるAI開発のための枠組みを提唱する。
関連論文リスト
- The Case for Contextual Copyleft: Licensing Open Source Training Data and Generative AI [1.2776470520481564]
この記事では、トレーニングデータから生成された生成AIモデルへのコピーレフト要求を拡張する、新しいライセンスメカニズムである、Contextual Copyleft AI(CCAI)ライセンスを紹介します。
CCAIライセンスは、開発者コントロールの強化、オープンソースAI開発のインセンティブ化、オープン洗浄プラクティスの緩和など、大きなアドバンテージを提供する。
論文 参考訳(メタデータ) (2025-07-17T01:42:51Z) - A Formal Model of the Economic Impacts of AI Openness Regulation [8.438080379702125]
本稿では、汎用モデルの作成者(ジェネラリスト)と、汎用モデルから特定のドメインやタスクへの微調整を行うエンティティ間の戦略的相互作用をモデル化する。
我々は,AIオープン性標準が開発者に対して適切な経済インセンティブを確立するかを評価するために,規制当局によるオープンソース定義の選択の様式化されたモデルを提案する。
論文 参考訳(メタデータ) (2025-07-14T07:08:31Z) - Opening the Scope of Openness in AI [1.2894076331861155]
AIにおけるオープン性の概念は、これまでオープンソースソフトウェアの定義とコミュニティの実践に強く影響を受けてきました。
我々は、異なる分野におけるオープンネスの基本的なスコープを考えると、議論が広まると論じている。
私たちの研究は、オープンソースソフトウェアを超えたオープンネスの原則と実践を反映して、AIのオープンネスをフレーミングする最近の取り組みに貢献しています。
論文 参考訳(メタデータ) (2025-05-09T23:16:44Z) - Generative AI as Digital Media [0.0]
生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
論文 参考訳(メタデータ) (2025-03-09T08:58:17Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。