論文の概要: Sustainability indicators in an open online community
- arxiv url: http://arxiv.org/abs/2309.12120v1
- Date: Thu, 21 Sep 2023 14:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:47:05.666524
- Title: Sustainability indicators in an open online community
- Title(参考訳): オープンオンラインコミュニティにおけるサステナビリティ指標
- Authors: Yo Yehudi, Carole Goble, and Caroline Jay
- Abstract要約: この研究は1年間にわたってオープンソースプロジェクトを監視し、共通のパフォーマンス指標を測定した。
これらのヘルス指標は、プロジェクトごとの状況が著しく異なるため、クロスプロジェクトベンチマークとして使用できないことが分かりました。
- 参考スコア(独自算出の注目度): 3.192308005611312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software is often abandoned or shut down, for one reason or another, and
whilst research on academic open source software is sparse, there seems little
reason to assume it is any different. While some reasons may be
straightforward, e.g. a sole maintainer has moved on, or grant funding has
ceased - some projects are able to withstand these barriers and may remain
active and maintained despite adversity. This study monitored open source
projects over the period of a year, measuring common performance indicators,
using both subjective and qualitative measures (participant surveys), as well
as using scripts to analyse indicators associated with these projects' online
source control codebases. We find that these health indicators can not be used
as cross project benchmarks, due to the significant variation in context for
each project. They can, however, often be useful in signifying changes in a
single project's health, providing they are not used to compare between
different unrelated projects.
- Abstract(参考訳): ソフトウェアは、何らかの理由で放棄またはシャットダウンされることが多く、学術的なオープンソースソフトウェアの研究は少ないが、それとは異なると仮定する理由はほとんどない。
単純な理由はあるが、例えば、単独のメンテナーが動き始めたり、資金提供が中止されたりするなど、いくつかのプロジェクトはこれらの障壁に耐えることができ、逆境にもかかわらず活動し、維持し続けることができる。
本研究は,1年間のオープンソースプロジェクトの監視,一般的なパフォーマンス指標の測定,主観的および質的指標(参加調査)の両面による計測,これらプロジェクトのオンラインソース管理コードベースに関連する指標分析のためのスクリプトの利用などを行った。
これらの健康指標は、プロジェクト毎のコンテキストが大きく変化するため、プロジェクト横断ベンチマークとして使用できないことが分かりました。
しかし、それらはしばしば単一のプロジェクトの健康状態の変化を示すのに役立ち、異なる無関係なプロジェクトを比較するのに使われない。
関連論文リスト
- Leveraging Large Language Models for Efficient Failure Analysis in Game Development [47.618236610219554]
本稿では,テストの失敗の原因となるコードの変更を自動的に識別する手法を提案する。
このメソッドは、LLM(Large Language Models)を利用して、エラーメッセージと対応するコード変更を関連付ける。
当社のアプローチは新たに作成したデータセットで71%の精度に達しています。
論文 参考訳(メタデータ) (2024-06-11T09:21:50Z) - Free Open Source Communities Sustainability: Does It Make a Difference
in Software Quality? [2.981092370528753]
本研究は,サステナビリティの異なる側面がソフトウェア品質に与える影響を実証的に検討することを目的とする。
4つのカテゴリにわたる16のサステナビリティ指標をサンプリングし、217のOSSプロジェクトに適用した。
論文 参考訳(メタデータ) (2024-02-10T09:37:44Z) - Guiding Effort Allocation in Open-Source Software Projects Using Bus
Factor Analysis [1.0878040851638]
プロジェクトのバスファクタ(BF)は、「プロジェクトが進めないよう無力化する必要がある主要な開発者の数」と定義されている。
コード変更行(LOCC)やコード行のコサイン差(change-size-cos)といった他のメトリクスを用いてBFを計算することを提案する。
論文 参考訳(メタデータ) (2024-01-06T20:55:40Z) - Towards Learning Geometric Eigen-Lengths Crucial for Fitting Tasks [62.89746245940464]
低次元であるが決定的な幾何固有長は幾何的タスクの成功を決定することが多い。
人間はそのような重要な幾何学的固有長を共通の意味で具現化してきた。
学習システムに同様の能力が備わっているかは、いまだ不明で未解明のままである。
論文 参考訳(メタデータ) (2023-12-25T04:41:52Z) - Code Ownership in Open-Source AI Software Security [18.779538756226298]
コードオーナシップのメトリクスを使用して、5つの著名なオープンソースAIソフトウェアプロジェクトにおける潜在的な脆弱性との相関を調査します。
この結果は、ハイレベルなオーナシップ(マイナーなコントリビュータの数が限られている)と脆弱性の減少との間に肯定的な関係があることを示唆している。
これらの新しいコードオーナシップメトリクスによって、プロジェクトキュレーターや品質保証の専門家が現場プロジェクトを評価し、ベンチマークするのを助けるために、Pythonベースのコマンドラインアプリケーションを実装しました。
論文 参考訳(メタデータ) (2023-12-18T00:37:29Z) - Empowering Many, Biasing a Few: Generalist Credit Scoring through Large
Language Models [53.620827459684094]
大規模言語モデル(LLM)は、複数のタスクにまたがる強力な一般化能力を持つ信用スコアリングタスクにおいて大きな可能性を秘めている。
クレジットスコアリングのための LLM を探索する,初のオープンソース包括的フレームワークを提案する。
そこで我々は,各種金融リスク評価タスクの煩雑な要求に合わせて,指導チューニングによる最初の信用・リスク評価大言語モデル(CALM)を提案する。
論文 参考訳(メタデータ) (2023-10-01T03:50:34Z) - How Early Participation Determines Long-Term Sustained Activity in
GitHub Projects? [20.236570418427533]
早期参加要因と長期プロジェクト持続可能性との関係を検討することを目的とする。
我々は、290,255のGitHubプロジェクトの持続可能性を予測するために、Blumbergのパフォーマンスモデルと機械学習を組み合わせた新しい方法論を活用する。
OSSプロジェクトのインキュベーションに先行経験があれば,早期参加者がプロジェクトの将来の持続的活動に肯定的な影響を与えることを定量的に示す。
論文 参考訳(メタデータ) (2023-08-11T08:24:41Z) - L-Eval: Instituting Standardized Evaluation for Long Context Language
Models [91.05820785008527]
長い文脈言語モデル(LCLM)のより標準化された評価を行うためにL-Evalを提案する。
20のサブタスク、508の長いドキュメント、2000以上の人間ラベルのクエリ応答対を含む新しい評価スイートを構築した。
その結果、一般的なn-gramマッチングの指標は人間の判断とよく相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:59:41Z) - Towards a Critical Open-Source Software Database [0.0]
CrOSSDプロジェクトはOSSプロジェクトのデータベースを構築し、現在のプロジェクトの"健康"状態を測定することを目的としている。
定量的メトリクスは、コントリビュータ数、コミット数、コード行数などのメタデータの自動クローリングを通じて収集される。
手動の分析と自動化ツールによって、選択した“クリティカル”プロジェクトの質的なメトリクスが収集される。
論文 参考訳(メタデータ) (2023-05-02T10:43:21Z) - Dimensions of Commonsense Knowledge [60.49243784752026]
我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
論文 参考訳(メタデータ) (2021-01-12T17:52:39Z) - CNN-based Density Estimation and Crowd Counting: A Survey [65.06491415951193]
本稿では,主にCNNに基づく密度マップ推定法において,群集数モデルについて包括的に検討する。
評価指標から, 観客数データセットで上位3人のパフォーマーを選択した。
我々は、今後のクラウドカウントの展開について、合理的な推測と予測を行うことを期待する。
論文 参考訳(メタデータ) (2020-03-28T13:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。