論文の概要: Who Do You Think You Are? Creating RSE Personas from GitHub Interactions
- arxiv url: http://arxiv.org/abs/2510.05390v1
- Date: Mon, 06 Oct 2025 21:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.994781
- Title: Who Do You Think You Are? Creating RSE Personas from GitHub Interactions
- Title(参考訳): あなたは誰だと思いますか? GitHubのインタラクションからRSEペルソナを作る
- Authors: Felicity Anderson, Julien Sindt, Neil Chue Hong,
- Abstract要約: 本稿では,ソフトウェアリポジトリマイニングとデータ駆動型ペルソナを組み合わせた研究ソフトウェア(RS)開発手法について述べる。
これにより、個人とRSプロジェクトチームは、コントリビューション、インパクト、リポジトリのダイナミクスを理解することができます。
RSEペルソナメソッドが、GitHub上の1,284のRSリポジトリにまたがる115,174のリポジトリコントリビュータのサンプルを、いかにうまく特徴付けるかを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe data-driven RSE personas: an approach combining software repository mining and data-driven personas applied to research software (RS), an attempt to describe and identify common and rare patterns of Research Software Engineering (RSE) development. This allows individuals and RS project teams to understand their contributions, impact and repository dynamics - an important foundation for improving RSE. We evaluate the method on different patterns of collaborative interaction behaviours by contributors to mid-sized public RS repositories (those with 10-300 committers) on GitHub. We demonstrate how the RSE personas method successfully characterises a sample of 115,174 repository contributors across 1,284 RS repositories on GitHub, sampled from 42,284 candidate software repository records queried from Zenodo. We identify, name and summarise seven distinct personas from low to high interactivity: Ephemeral Contributor; Occasional Contributor; Project Organiser; Moderate Contributor; Low-Process Closer; Low-Coding Closer; and Active Contributor. This demonstrates that large datasets can be analysed despite difficulties of comparing software projects with different project management factors, research domains and contributor backgrounds.
- Abstract(参考訳): ソフトウェアリポジトリマイニングと,研究ソフトウェア(RS)に適用されたデータ駆動型ペルソナを組み合わせた,RSE(Research Software Engineering)開発における一般的かつ稀なパターンを記述・特定するためのアプローチについて述べる。
これにより、個人とRSプロジェクトチームは、RSEを改善するための重要な基盤である、コントリビューション、インパクト、リポジトリのダイナミクスを理解することができます。
我々は,GitHub上の中規模のパブリックRSリポジトリ(10~300のコミッタを含む)へのコントリビュータによる,コラボレーション行動のさまざまなパターンに関する手法を評価する。
我々は、GitHub上の1,284のRSリポジトリにまたがる115,174のリポジトリコントリビュータのサンプルを、RSEペルソナメソッドがいかにうまく特徴付けるかを実証した。
我々は,低-高相互作用性 (Ephemeral Contributor, Ophesional Contributor, Project Organiser, Moderate Contributor, Low-Process Closer, Low-Coding Closer, Active Contributor) の7つの異なる人物を識別し,命名し,要約する。
これは、ソフトウェアプロジェクトと異なるプロジェクト管理要因、研究領域、コントリビュータのバックグラウンドを比較することの難しさにもかかわらず、大規模なデータセットを分析できることを示しています。
関連論文リスト
- DRBench: A Realistic Benchmark for Enterprise Deep Research [81.49694432639406]
DRBenchは、エンタープライズ環境で複雑でオープンなディープリサーチタスクでAIエージェントを評価するためのベンチマークである。
セールス、サイバーセキュリティ、コンプライアンスなど10のドメインにわたる15のディープリサーチタスクをリリースしています。
論文 参考訳(メタデータ) (2025-09-30T18:47:20Z) - Benchmarking Deep Search over Heterogeneous Enterprise Data [73.55304268238474]
検索強化生成(RAG)の形式を評価するための新しいベンチマークを提案する。
RAGは、多種多様な、しかし関連するソースに対して、ソースを意識したマルチホップ推論を必要とする。
製品計画、開発、サポートステージをまたいだビジネスをシミュレートする合成データパイプラインを使用して構築します。
論文 参考訳(メタデータ) (2025-06-29T08:34:59Z) - Mining Software Repositories for Expert Recommendation [3.481985817302898]
我々は,大規模なオープンソースソフトウェアプロジェクトの開発者に対して,バグ割り当ての自動化アプローチを提案する。
このようにして、我々は、新しく報告された問題に割り当てられる特定の分野において、適切なレベルの専門知識を持つ最高の開発者を見つける責任を持つ、人間のバグトリアージを支援します。
論文 参考訳(メタデータ) (2025-04-23T01:41:08Z) - Ecosystem-wide influences on pull request decisions: insights from NPM [1.7205106391379021]
NPMエコシステム内の20,052のGitHubプロジェクトから、約1.8万のプルリクエストと2100万のイシューのデータセットを収集しています。
エコシステムの経験のある開発者は、ユーザとは異なるコントリビューションをしているのです。
プルリクエストの結果を予測するために,生態系全体の要因と過去の研究で検討された特徴を組み合わせることで,F1全体のスコアが0.92に達した。
論文 参考訳(メタデータ) (2024-10-04T13:14:39Z) - On the Creation of Representative Samples of Software Repositories [1.8599311233727087]
GitHubのようなソーシャルコーディングプラットフォームの出現により、研究者は研究のソースデータとして使うために何百万ものソフトウェアリポジトリにアクセスできるようになった。
現在のサンプリング法は、しばしばランダムな選択に基づいており、研究とは無関係な変数に依存している。
本稿では,ソフトウェアリポジトリの代表例を作成する手法を提案する。このような代表性は,リポジトリの個体群の特徴と実証研究の要件の両方に適切に一致している。
論文 参考訳(メタデータ) (2024-10-01T12:41:15Z) - SEART Data Hub: Streamlining Large-Scale Source Code Mining and Pre-Processing [13.717170962455526]
私たちはSEART Data HubというWebアプリケーションを紹介します。これは、公開GitHubリポジトリからマイニングされたコードを特徴とする大規模データセットを簡単に構築し、事前処理できるWebアプリケーションです。
簡単なWebインターフェースを通じて、研究者はマイニング基準と、実行したい特定の前処理ステップを指定できる。
リクエストを提出すると、ユーザは数時間以内に、必要なデータセットのダウンロードリンク付きのメールを受け取る。
論文 参考訳(メタデータ) (2024-09-27T11:42:19Z) - CoIR: A Comprehensive Benchmark for Code Information Retrieval Models [52.61625841028781]
COIR(Code Information Retrieval Benchmark)は、コード検索機能を評価するために設計された、堅牢で包括的なベンチマークである。
COIRは、厳密にキュレートされた10のコードデータセットで構成され、7つの異なるドメインにまたがる8つの特有の検索タスクにまたがる。
我々は,COIRを用いた9つの広く使用されている検索モデルを評価し,最先端システムにおいても,コード検索タスクの実行に重大な困難があることを明らかにする。
論文 参考訳(メタデータ) (2024-07-03T07:58:20Z) - DiscoveryBench: Towards Data-Driven Discovery with Large Language Models [50.36636396660163]
我々は、データ駆動探索の多段階プロセスを形式化する最初の包括的なベンチマークであるDiscoveryBenchを紹介する。
我々のベンチマークには、社会学や工学などの6つの分野にまたがる264のタスクが含まれている。
私たちのベンチマークでは、自律的なデータ駆動型発見の課題を説明し、コミュニティが前進するための貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-07-01T18:58:22Z) - Alibaba LingmaAgent: Improving Automated Issue Resolution via Comprehensive Repository Exploration [64.19431011897515]
本稿では,問題解決のためにソフトウェアリポジトリ全体を包括的に理解し,活用するために設計された,新しいソフトウェアエンジニアリング手法であるAlibaba LingmaAgentを提案する。
提案手法では,重要なリポジトリ情報を知識グラフに凝縮し,複雑さを低減し,モンテカルロ木探索に基づく戦略を採用する。
Alibaba Cloudの製品展開と評価において、LingmaAgentは、開発エンジニアが直面した社内問題の16.9%を自動で解決し、手作業による介入で43.3%の問題を解決した。
論文 参考訳(メタデータ) (2024-06-03T15:20:06Z) - Looking for related discussions on GitHub Discussions [18.688096673390586]
GitHub Discussionsは、プラットフォーム上にホストされているユーザとコミュニティのメンバー間の共同ディスカッションを促進するための、ネイティブフォーラムである。
GitHub DiscussionsはPCQAフォーラムに似ているが、このような環境が直面しているのと同じような課題に直面している。
重複した投稿は、同じコンテンツ(そして正確なコピーかもしれない)を持っているが、ほぼ重複して、同様のトピックや情報を共有する。
本稿では,Sentence-BERT事前学習モデル,RD-Detectorに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-23T20:41:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。