論文の概要: Leveraging Language Models to Discover Evidence-Based Actions for OSS Sustainability
- arxiv url: http://arxiv.org/abs/2602.11746v1
- Date: Thu, 12 Feb 2026 09:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.742618
- Title: Leveraging Language Models to Discover Evidence-Based Actions for OSS Sustainability
- Title(参考訳): OSSサステナビリティのためのエビデンスベースのアクションを発見するために言語モデルを活用する
- Authors: Nafiz Imtiaz Khan, Vladimir Filkov,
- Abstract要約: オープンソースソフトウェアプロジェクトは大きな価値を生み出すが、ほとんどの場合、持続可能な状態には到達しない。
最近の研究はOSSの持続可能性を予測する正確なモデルを生み出していますが、これらのモデルはメンテナに何をすべきかを伝えることはめったにありません。
我々は、このギャップをSE文献の証拠採掘者としてLLMを使用することで埋める。
- 参考スコア(独自算出の注目度): 1.7474751673489868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When successful, Open Source Software (OSS) projects create enormous value, but most never reach a sustainable state. Recent work has produced accurate models that forecast OSS sustainability, yet these models rarely tell maintainers what to do: their features are often high-level socio-technical signals that are not directly actionable. Decades of empirical software engineering research have accumulated a large but underused body of evidence on concrete practices that improve project health. We close this gap by using LLMs as evidence miners over the SE literature. We design a RAG-pipeline and a two-layer prompting strategy that extract researched actionables (ReACTs): concise, evidence-linked recommendations mapping to specific OSS practices. In the first layer, we systematically explore open LLMs and prompting techniques, selecting the best-performing combination to derive candidate ReACTs from 829 ICSE and FSE papers. In the second layer, we apply follow-up prompting to filter hallucinations, extract impact and evidence, and assess soundness and precision. Our pipeline yields 1,922 ReACTs, of which 1,312 pass strict quality criteria and are organized into practice-oriented categories connectable to project signals from tools like APEX. The result is a reproducible, scalable approach turning scattered research findings into structured, evidence-based actions guiding OSS projects toward sustainability.
- Abstract(参考訳): 成功すれば、オープンソースソフトウェア(OSS)プロジェクトは巨大な価値を生み出すが、ほとんどの場合、持続可能な状態には到達しない。
最近の研究はOSSの持続可能性を予測する正確なモデルを生み出しているが、これらのモデルはメンテナーに何をすべきかを伝えることはめったにない。
経験的ソフトウェアエンジニアリング研究の数十年は、プロジェクトの健全性を改善するための具体的なプラクティスに関する、大きくて過小評価されている証拠を蓄積してきた。
我々は、このギャップをSE文献の証拠採掘者としてLLMを使用することで埋める。
RAG-pipelineとReACTs(ReACTs)を抽出する2層プロンプト戦略を設計し、簡潔でエビデンスにリンクしたレコメンデーションマッピングを特定のOSSプラクティスにマッピングする。
第1層では,829 ICSE と FSE の論文から候補 ReACT を導出する最良性能の組み合わせを選択することにより,オープン LLM を体系的に探索し,手法を推し進める。
第2層では,幻覚を除去し,影響と証拠を抽出し,音質と精度を評価するためにフォローアッププロンプトを適用した。
パイプラインは1,922のReACTを生成し、そのうち1,312は厳格な品質基準をパスし、APEXのようなツールからのプロジェクト信号に接続可能なプラクティス指向のカテゴリに分類されます。
その結果、再現可能でスケーラブルなアプローチが、散在する研究成果を、OSSプロジェクトを持続可能性に向けて導く構造化されたエビデンスベースのアクションに変えます。
関連論文リスト
- TraceLLM: Leveraging Large Language Models with Prompt Engineering for Enhanced Requirements Traceability [4.517933493143603]
本稿では,要求トレーサビリティ向上のためのフレームワークであるTraceLLMを紹介する。
我々は,4つのベンチマークデータセット上で8つの最先端LCMを用いて,迅速な一般化とロバスト性を評価する。
論文 参考訳(メタデータ) (2026-02-01T14:29:13Z) - Discovering Process-Outcome Credit in Multi-Step LLM Reasoning [3.584086358722852]
強化学習(RL)は、大規模言語モデル(LLM)における推論能力を高めるための強力なパラダイムとして機能する。
本稿では,連続的な報酬信号を提供するための新しいフレームワークを提案する。
本モデルでは, 予測できない, 難解な推論タスクに対して, ゼロショット転送能力を実証し, より優れた配当性を示す。
論文 参考訳(メタデータ) (2026-02-01T05:44:09Z) - Reporting LLM Prompting in Automated Software Engineering: A Guideline Based on Current Practices and Expectations [39.62249759297524]
大規模言語モデルは、ソフトウェアエンジニアリングタスクの自動化にますます使われています。
これらのモデルは自然言語のプロンプトを通じて導かれるため、システムパフォーマンスと振る舞いにおいて、迅速なエンジニアリングが重要な要素となる。
SE研究での役割が増大しているにもかかわらず、プロンプトに関連する決定は、体系的または透明な方法で文書化されることは滅多にない。
論文 参考訳(メタデータ) (2026-01-05T10:01:20Z) - MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [78.09559830840595]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は最先端のPTQ手法を実装し、包括的な評価を行う。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - Mastering the Task of Open Information Extraction with Large Language
Models and Consistent Reasoning Environment [52.592199835286394]
オープン情報抽出(OIE)は、自然文から客観的な構造化された知識を抽出することを目的としている。
大規模言語モデル(LLM)は、テキスト内学習能力に優れています。
論文 参考訳(メタデータ) (2023-10-16T17:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。