論文の概要: Charting Uncertain Waters: A Socio-Technical Framework for Navigating GenAI's Impact on Open Source Communities
- arxiv url: http://arxiv.org/abs/2508.04921v1
- Date: Wed, 06 Aug 2025 22:54:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.659211
- Title: Charting Uncertain Waters: A Socio-Technical Framework for Navigating GenAI's Impact on Open Source Communities
- Title(参考訳): チャートの不確実な水:GenAIがオープンソースコミュニティに与える影響をナビゲートするためのソシオ技術フレームワーク
- Authors: Zixuan Feng, Reed Milewicz, Emerson Murphy-Hill, Tyler Menezes, Alexander Serebrenik, Igor Steinmacher, Anita Sarma,
- Abstract要約: 我々は、ソフトウェアプラクティス、ドキュメンテーション、コミュニティエンゲージメント、ガバナンスの4つの領域にわたるOSS開発をGenAI主導で破壊する中で、McLuhan氏のTetradにインスパイアされた社会技術的フレームワークを使用して、シナリオ駆動で概念的な探索を行い、コミュニティのレジリエンスのリスクと機会の両方を明らかにする。
このレンズを採用することで、OSSのリーダーや研究者は、単に技術的な不況に反応するのではなく、自分たちのエコシステムの未来を積極的に形作ることができる。
- 参考スコア(独自算出の注目度): 53.812795099349295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open Source Software communities face a wave of uncertainty as Generative AI rapidly transforms how software is created, maintained, and governed. Without clear frameworks, communities risk being overwhelmed by the complexity and ambiguity introduced by GenAI, threatening the collaborative ethos that underpins OSS. We conduct a scenario-driven, conceptual exploration using a socio-technical framework inspired by McLuhan's Tetrad to surface both risks and opportunities for community resilience amid GenAI-driven disruption of OSS development across four domains: software practices, documentation, community engagement, and governance. By adopting this lens, OSS leaders and researchers can proactively shape the future of their ecosystems, rather than simply reacting to technological upheaval.
- Abstract(参考訳): オープンソースソフトウェアコミュニティは、ジェネレーティブAIがソフトウェアの作成、保守、管理の仕方を急速に変革するにつれ、不確実な波に直面しています。
明確なフレームワークがなければ、コミュニティはGenAIが導入した複雑さと曖昧さに圧倒され、OSSを支える協調的な倫理を脅かす恐れがある。
我々は、ソフトウェアプラクティス、ドキュメンテーション、コミュニティエンゲージメント、ガバナンスの4つの領域にわたるOSS開発をGenAI主導で破壊する中で、McLuhan氏のTetradにインスパイアされた社会技術的フレームワークを使用して、シナリオ駆動で概念的な探索を行い、コミュニティのレジリエンスのリスクと機会の両方を明らかにする。
このレンズを採用することで、OSSのリーダーや研究者は、単に技術的な不況に反応するのではなく、自分たちのエコシステムの未来を積極的に形作ることができる。
関連論文リスト
- Artificial Intelligence in Open Source Software Engineering: A Foundation for Sustainability [0.0]
レビューでは、人工知能がどのように活用され、オープンソースソフトウェアサステナビリティの課題に対処しているかを論じている。
Paperは、自動バグトリアージやシステムメンテナンスなど、この領域におけるAIの重要応用を特定している。
また、OSSコンテキストにおけるAIの適用から生じる制限と倫理的懸念についても検討する。
論文 参考訳(メタデータ) (2026-02-05T20:53:45Z) - The Future of Generative AI in Software Engineering: A Vision from Industry and Academia in the European GENIUS Project [1.2330230885669606]
GenAIはコードを生成し、バグを特定し、修正を推奨し、品質保証をサポートする。
GENIUSプロジェクトは、すべてのSDLCフェーズにわたるAI統合を進めることで、これらの課題に対処することを目指している。
このビジョンペーパーは、GenAI駆動ソフトウェアエンジニアリングの将来について、共通の視点を提示する。
論文 参考訳(メタデータ) (2025-11-03T08:56:23Z) - Internal Vulnerabilities, External Threats: A Grounded Framework for Enterprise Open Source Risk Governance [11.431576667955268]
従来のリスク管理は、技術的なツールに焦点を絞ったものだった。
目的 ->脅威 ->脆弱性 ->緩和 (OTVM)
これは単なる技術的チェックリストを超越する全体論的決定モデルを提供する。
論文 参考訳(メタデータ) (2025-10-29T18:27:42Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - The Evolution of Zero Trust Architecture (ZTA) from Concept to Implementation [0.0]
Zero Trust Architecture (ZTA) はサイバーセキュリティのパラダイム変更のひとつだ。
この記事では、ZTAの中核となる概念、その始まり、いくつかのユースケースと今後のトレンドについて研究する。
ZTAは、クラウド環境、教育、職場環境(自宅を含む)を強化するとともに、横動きやインサイダーの脅威といった他のリスクを制御することが期待されている。
論文 参考訳(メタデータ) (2025-04-16T11:26:54Z) - AI Risk Atlas: Taxonomy and Tooling for Navigating AI Risks and Resources [24.502423087280008]
AIリスクアトラス(AI Risk Atlas)は、さまざまなソースからAIリスクを統合し、それらをガバナンスフレームワークと整合させる、構造化された分類法である。
私たちはまた、リスク定義、ベンチマーク、データセット、緩和戦略の分割を橋渡しするために設計されたオープンソースのツールのコレクションであるR Risk Atlas Nexusを紹介します。
論文 参考訳(メタデータ) (2025-02-26T12:23:14Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - The Software Genome Project: Venture to the Genomic Pathways of Open
Source Software and Its Applications [8.55939767653389]
textbfSoftware Genome Projectは、オープンソースのソフトウェアのセキュアなモニタリングと利用を目的としている。
Software Genome Projectは、開発者とマネージャがソフトウェアの複雑さと多様性をより深く理解するために、完全なソフトウェアゲノムマップを構築する。
論文 参考訳(メタデータ) (2023-11-16T13:18:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。