論文の概要: Forecasting the Maintained Score from the OpenSSF Scorecard for GitHub Repositories linked to PyPI libraries
- arxiv url: http://arxiv.org/abs/2601.18344v1
- Date: Mon, 26 Jan 2026 10:32:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.779947
- Title: Forecasting the Maintained Score from the OpenSSF Scorecard for GitHub Repositories linked to PyPI libraries
- Title(参考訳): PyPIライブラリにリンクされたGitHubリポジトリ用のOpenSSF Scorecardからのメンテナンススコアの予測
- Authors: Alexandros Tsakpinis, Efe Berk Ergülec, Emil Schwenger, Alexander Pretschner,
- Abstract要約: 今後,OpenSSFが保持するスコアをどの程度予測できるかを検討する。
PageRankによって、最も中央のPyPIライブラリのトップ1%に関連付けられた3,220のGitHubリポジトリを分析します。
以上の結果から,今後の保守活動は有意義な精度で予測できることが示唆された。
- 参考スコア(独自算出の注目度): 78.48200143057376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The OpenSSF Scorecard is widely used to assess the security posture of open-source software repositories, with the Maintained metric indicating recent development activity and helping identify potentially abandoned dependencies. However, this metric is inherently retrospective, reflecting only the past 90 days of activity and providing no insight into future maintenance, which limits its usefulness for proactive risk assessment. In this paper, we study to what extent future maintenance activity, as captured by the OpenSSF Maintained score, can be forecasted. We analyze 3,220 GitHub repositories associated with the top 1% most central PyPI libraries by PageRank and reconstruct historical Maintained scores over a three-year period. We formulate the task as multivariate time series forecasting and consider four target representations: raw scores, bucketed maintenance levels, numerical trend slopes, and categorical trend types. We compare a statistical model (VARMA), a machine learning model (Random Forest), and a deep learning model (LSTM) across training windows of 3-12 months and forecasting horizons of 1-6 months. Our results show that future maintenance activity can be predicted with meaningful accuracy, particularly for aggregated representations such as bucketed scores and trend types, achieving accuracies above 0.95 and 0.80, respectively. Simpler statistical and machine learning models perform on par with deep learning approaches, indicating that complex architectures are not required. These findings suggest that predictive modeling can effectively complement existing Scorecard metrics, enabling more proactive assessment of open-source maintenance risks.
- Abstract(参考訳): OpenSSF Scorecardは、オープンソースソフトウェアリポジトリのセキュリティ姿勢を評価するために広く使用されている。
しかし、この指標は本質的には振り返りであり、過去90日間の活動しか反映せず、将来のメンテナンスについての洞察を与えていない。
本稿では,OpenSSF の維持管理スコアによって得られた今後の保守活動の予測方法について検討する。
PageRankによって、最も中央のPyPIライブラリのトップ1%に関連する3,220のGitHubリポジトリを分析し、3年間の履歴管理スコアを再構築します。
タスクを多変量時系列予測として定式化し、生スコア、バケット付きメンテナンスレベル、数値トレンドスロープ、カテゴリートレンドタイプという4つの目標表現を考察する。
我々は,3~12ヶ月のトレーニングウィンドウと1~6ヶ月の地平線をまたいだ統計モデル(VARMA),機械学習モデル(Random Forest),ディープラーニングモデル(LSTM)を比較した。
以上の結果から,今後の保守活動は有意な精度で予測できること,特にバケットスコアやトレンドタイプなどの集約表現では0.95以上,0.80以上となることが示唆された。
より単純な統計的および機械学習モデルは、ディープラーニングアプローチと同等に機能し、複雑なアーキテクチャは必要ないことを示している。
これらの結果は、予測モデリングが既存のScorecardメトリクスを効果的に補完し、オープンソースのメンテナンスリスクのより積極的な評価を可能にすることを示唆している。
関連論文リスト
- Prescriptive Scaling Reveals the Evolution of Language Model Capabilities [22.14002750185524]
我々は、ログ事前学習FLOPの関数として、機能境界、ベンチマークスコアの高条件量子化を推定する。
我々は、初期のモデル世代に適合し、後のリリースを評価することで、時間的信頼性を検証する。
本稿では,評価予算の約20%を用いて,全データフロンティア付近を復元する効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2026-02-17T03:13:51Z) - Scaling Open-Ended Reasoning to Predict the Future [56.672065928345525]
我々は、オープンエンドの予測質問の予測を行うために言語モデルを訓練する。
トレーニングデータをスケールアップするために、毎日のニュースで報告されるグローバルイベントから新しい予測質問を合成する。
トレーニングの予測によるキャリブレーションの改善は、一般的なベンチマークで一般化されている。
論文 参考訳(メタデータ) (2025-12-31T18:59:51Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - A Probabilistic Perspective on Unlearning and Alignment for Large Language Models [48.96686419141881]
大規模言語モデル(LLM)のための最初の形式的確率的評価フレームワークを紹介する。
すなわち,モデルの出力分布に関する確率保証の高い新しい指標を提案する。
私たちのメトリクスはアプリケーションに依存しないので、デプロイ前にモデル機能についてより信頼性の高い見積を行うことができます。
論文 参考訳(メタデータ) (2024-10-04T15:44:23Z) - Revealing the value of Repository Centrality in lifespan prediction of Open Source Software Projects [5.438725298163702]
ユーザ・リポジトリ・ネットワークから新しいメトリクスを提案し,プロジェクト・デプリケーション・予測器に適合させる。
2011年から2023年までの103,354の非フォークGitHub OSSプロジェクトを含む包括的なデータセットを構築しました。
本研究は,HITSの集中度指標とリポジトリの非推奨リスクの相関関係を明らかにする。
論文 参考訳(メタデータ) (2024-05-13T07:07:54Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - Firenze: Model Evaluation Using Weak Signals [5.723905680436377]
本稿では,機械学習モデルの性能比較のための新しいフレームワークFirenzeを紹介する。
興味領域と呼ばれるサンプルの特定のサブセットに対して計算・結合されたマーカーは、実世界のパフォーマンスを頑健に見積もることができることを示す。
論文 参考訳(メタデータ) (2022-07-02T13:20:38Z) - Short-term forecasting COVID-19 cumulative confirmed cases: Perspectives
for Brazil [3.0711362702464675]
新型コロナウイルス(COVID-19)は、今日までの最初の通知以来、何百万人もの人に感染する新興の病気だ。
本稿では、自己回帰統合移動平均(ARIMA)、キュビスト(CUBIST)、ランダムフォレスト(RF)、リッジ回帰(RIDGE)、スタックングアンサンブル学習を評価する。
開発されたモデルは正確な予測を生成でき、それぞれ0.87%から3.51%、1.02%から5.63%、0.95%から6.90%の誤差を発生させる。
論文 参考訳(メタデータ) (2020-07-21T17:58:58Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。