論文の概要: Generative AI and the Future of the Digital Commons: Five Open Questions and Knowledge Gaps
- arxiv url: http://arxiv.org/abs/2508.06470v1
- Date: Fri, 08 Aug 2025 17:20:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.319739
- Title: Generative AI and the Future of the Digital Commons: Five Open Questions and Knowledge Gaps
- Title(参考訳): 創造的AIとデジタルコモンズの未来:5つのオープンな質問と知識ギャップ
- Authors: Arman Noroozian, Lorena Aldana, Marta Arisi, Hadi Asghari, Renata Avila, Pietro Giovanni Bizzaro, Ramya Chandrasekhar, Cristian Consonni, Deborah De Angelis, Francesca De Chiara, Maria del Rio-Chanona, Melanie Dulong de Rosnay, Maria Eriksson, Frederic Font, Emilia Gomez, Valérian Guillier, Lisa Gutermuth, David Hartmann, Lucie-Aimée Kaffee, Paul Keller, Felix Stalder, Joao Vinagre, Denny Vrandečić, Amanda Wasielewski,
- Abstract要約: 生成AIは、コミュニティによって作成、共有、維持される、自由でオープンなオンラインコンテンツの膨大なコレクションであるデジタルコモンズに大きく依存している。
GenAIの相互依存関係、デジタルコモンズの長期的な持続可能性、そして現在のAI開発プラクティスのエクイティを検討することが不可欠である。
- 参考スコア(独自算出の注目度): 4.2431001054576996
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid advancement of Generative AI (GenAI) relies heavily on the digital commons, a vast collection of free and open online content that is created, shared, and maintained by communities. However, this relationship is becoming increasingly strained due to financial burdens, decreased contributions, and misalignment between AI models and community norms. As we move deeper into the GenAI era, it is essential to examine the interdependent relationship between GenAI, the long-term sustainability of the digital commons, and the equity of current AI development practices. We highlight five critical questions that require urgent attention: 1. How can we prevent the digital commons from being threatened by undersupply as individuals cease contributing to the commons and turn to Generative AI for information? 2. How can we mitigate the risk of the open web closing due to restrictions on access to curb AI crawlers? 3. How can technical standards and legal frameworks be updated to reflect the evolving needs of organizations hosting common content? 4. What are the effects of increased synthetic content in open knowledge databases, and how can we ensure their integrity? 5. How can we account for and distribute the infrastructural and environmental costs of providing data for AI training? We emphasize the need for more responsible practices in AI development, recognizing the digital commons not only as content but as a collaborative and decentralized form of knowledge governance, which relies on the practice of "commoning" - making, maintaining, and protecting shared and open resources. Ultimately, our goal is to stimulate discussion and research on the intersection of Generative AI and the digital commons, with the aim of developing an "AI commons" and public infrastructures for AI development that support the long-term health of the digital commons.
- Abstract(参考訳): Generative AI(GenAI)の急速な進歩は、コミュニティによって作成、共有、維持される、自由でオープンなオンラインコンテンツの膨大なコレクションであるデジタルコモンズに大きく依存している。
しかし、この関係は、財政的な負担、貢献の減少、AIモデルとコミュニティの規範の不一致により、ますます緊張している。
我々は、GenAI時代を深く掘り下げるにつれて、GenAIとデジタルコモンズの長期的な持続可能性、そして現在のAI開発プラクティスのエクイティの相互依存関係を検討することが不可欠である。
緊急の注意を要する5つの重要な質問を強調します。
1.デジタルコモンズが、個人がコモンズへのコントリビューションをやめ、情報のためにジェネレーティブAIに切り替える際に、供給不足によって脅かされるのを防ぐにはどうすればいいのか。
2. AIクローラの制限によるオープンウェブ閉鎖のリスクを軽減するには、どうすればよいのか?
3. 共通コンテンツをホストする組織のニーズの進展を反映して、技術標準や法的枠組みをどう更新するか。
4.オープンナレッジデータベースにおける合成コンテンツの増加の影響と、その完全性を確保するにはどうすればよいか。
5.AIトレーニングのためのデータ提供のインフラ・環境費用を考慮し、分配するにはどうすればいいのか。
我々は、AI開発におけるより責任あるプラクティスの必要性を強調し、デジタルコモンズをコンテンツとしてだけでなく、共有およびオープンなリソースの作成、維持、保護という“共有”のプラクティスに依存する、協調的で分散化された知識ガバナンスとして認識する。
最終的に私たちのゴールは、ジェネレーティブAIとデジタルコモンズの交差点に関する議論と研究を刺激することであり、デジタルコモンズの長期的な健康を支える"AIコモンズ"とパブリックインフラストラクチャの開発を目的としています。
関連論文リスト
- A Community-driven vision for a new Knowledge Resource for AI [59.29703403953085]
WordNetのような知識リソースの成功にもかかわらず、検証可能な汎用的な知識ソースは、AIインフラストラクチャにおいて重要な欠陥である。
本稿では,この知見を要約し,新しい知識基盤に向けたコミュニティ主導のビジョンを概説する。
論文 参考訳(メタデータ) (2025-06-19T20:51:28Z) - Societal AI Research Has Become Less Interdisciplinary [3.9599054392856483]
この研究は、2014年から2024年にかけて、ArXivで発行された10万以上のAI関連論文を分析した。
コンピュータ科学のみのチームが、この分野全体の社会的アウトプットのシェアを拡大している。
これらの知見は、社会的AIのドライバに関する共通の仮定に挑戦する。
論文 参考訳(メタデータ) (2025-06-10T12:34:53Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - A Pathway Towards Responsible AI Generated Content [68.13835802977125]
我々は、AIGCの健全な開発と展開を妨げかねない8つの主要な懸念に焦点を当てている。
これらの懸念には、(1)プライバシー、(2)バイアス、毒性、誤情報、(3)知的財産(IP)、(4)堅牢性、(5)オープンソースと説明、(6)技術の乱用、(7)同意、信用、補償、(8)環境からのリスクが含まれる。
論文 参考訳(メタデータ) (2023-03-02T14:58:40Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Report prepared by the Montreal AI Ethics Institute (MAIEI) on
Publication Norms for Responsible AI [0.0]
モントリオールAI倫理研究所は2020年5月に、AIに関するパートナーシップ(Partnership on AI)と2つの公開協議会を開催した。
ミートアップは、責任あるAIの出版規範について検討した。
MAIEIは6つのイニシャルレコメンデーションを提供する。
論文 参考訳(メタデータ) (2020-09-15T17:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。