論文の概要: Can I Solve It? Identifying APIs Required to Complete OSS Task
- arxiv url: http://arxiv.org/abs/2103.12653v1
- Date: Tue, 23 Mar 2021 16:16:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 18:22:39.655703
- Title: Can I Solve It? Identifying APIs Required to Complete OSS Task
- Title(参考訳): 解けるか?
OSSタスクの完了に必要なAPIの特定
- Authors: Fabio Santos, Igor Wiese, Bianca Trinkenreich, Igor Steinmacher, Anita
Sarma and Marco Gerosa
- Abstract要約: タスク完了に必要なAPIのドメインに対するラベリング問題の実現可能性と関連性を検討する。
問題の記述とプロジェクト履歴を利用して予測モデルを構築し,精度を最大82%まで向上させ,最大97.8%をリコールした。
私たちの結果は、問題を自動的にラベル付けするツールの作成を刺激し、開発者がスキルに合致するタスクを見つけるのに役立ちます。
- 参考スコア(独自算出の注目度): 16.13269535068818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open Source Software projects add labels to open issues to help contributors
choose tasks. However, manually labeling issues is time-consuming and
error-prone. Current automatic approaches for creating labels are mostly
limited to classifying issues as a bug/non-bug. In this paper, we investigate
the feasibility and relevance of labeling issues with the domain of the APIs
required to complete the tasks. We leverage the issues' description and the
project history to build prediction models, which resulted in precision up to
82% and recall up to 97.8%. We also ran a user study (n=74) to assess these
labels' relevancy to potential contributors. The results show that the labels
were useful to participants in choosing tasks, and the API-domain labels were
selected more often than the existing architecture-based labels. Our results
can inspire the creation of tools to automatically label issues, helping
developers to find tasks that better match their skills.
- Abstract(参考訳): オープンソースソフトウェアプロジェクトは、コントリビュータがタスクを選択するのを助けるために、オープンイシューにラベルを追加する。
しかし、手動でラベル付けするのは時間がかかり、エラーが発生しやすい。
ラベルを作成するための現在の自動アプローチは、主にバグ/非バグの分類に限られている。
本稿では,タスク完了に必要なAPIのドメインによるラベル付け問題の実現可能性と妥当性について検討する。
問題の記述とプロジェクト履歴を利用して予測モデルを構築し,精度を最大82%まで向上させ,最大97.8%をリコールした。
また,これらのラベルの潜在的貢献者との関連性を評価するために,ユーザ調査(n=74)を実施した。
その結果、ラベルはタスク選択の参加者にとって有用であり、apiドメインラベルは既存のアーキテクチャベースのラベルよりも多く選択された。
私たちの結果は、問題を自動的にラベル付けするツールの作成を刺激し、開発者がスキルに合致するタスクを見つけるのに役立ちます。
関連論文リスト
- Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - Tag that issue: Applying API-domain labels in issue tracking systems [20.701637107734996]
完了に必要なスキルをラベル付けすることで、コントリビュータがオープンソースプロジェクトのタスクを選択するのに役立ちます。
ハイレベルなAPIカテゴリである“APIドメイン”と呼ばれる問題の自動ラベリングの実現可能性と妥当性について検討する。
以上の結果から, 課題選択に有用なAPIドメインラベル, (ii) ラベルの精度は84%, 平均で78.6%, (iii) 予測結果が71.3%, 52.5%まで到達した。
論文 参考訳(メタデータ) (2023-04-06T05:49:46Z) - ScarceNet: Animal Pose Estimation with Scarce Annotations [74.48263583706712]
ScarceNetは、ラベルのない画像のための人工ラベルを生成するための擬似ラベルベースのアプローチである。
我々は、既存の半教師付きアプローチを大きなマージンで上回る、挑戦的なAP-10Kデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-03-27T09:15:53Z) - GiveMeLabeledIssues: An Open Source Issue Recommendation System [9.312780130838952]
開発者はしばしば、オープンソースソフトウェア(OSS)プロジェクトのイシュートラッキングシステムをナビゲートして、適切なタスクを見つけるのに苦労します。
本稿では,プロジェクトリポジトリをマイニングし,課題を解決に必要なスキルに基づいてラベル付けするツールを提案する。
GiveMeLabeledIssuesは開発者のスキルとタスクのマッチングを容易にし、プロジェクトのメンテナの負担を軽減する。
論文 参考訳(メタデータ) (2023-03-23T16:39:31Z) - Supporting the Task-driven Skill Identification in Open Source Project
Issue Tracking Systems [0.0]
コントリビュータがコントリビュータのタスクを選択するのを支援するために,オープンイシュー戦略の自動ラベル付けについて検討する。
スキルを特定することで、コントリビュータ候補はより適切なタスクを選択するべきだ、と私たちは主張する。
本研究では,実験におけるラベルの関連性を定量的に分析し,戦略の相対的重要性を比較した。
論文 参考訳(メタデータ) (2022-11-02T14:17:22Z) - Large Loss Matters in Weakly Supervised Multi-Label Classification [50.262533546999045]
まず、観測されていないラベルを負のラベルとみなし、Wタスクをノイズの多いマルチラベル分類にキャストする。
ノイズラベルを記憶しないために,大規模な損失サンプルを拒絶または補正する新しいW法を提案する。
提案手法は, 弱教師付きマルチラベル分類において, 大きな損失を適切に処理することが重要であることを検証した。
論文 参考訳(メタデータ) (2022-06-08T08:30:24Z) - Automatic Issue Classifier: A Transfer Learning Framework for
Classifying Issue Reports [0.0]
私たちはRoBERTaと呼ばれる既製のニューラルネットワークを使って、問題を分類しています。
本稿では,問題レポートを複数ラベル設定で分類するアプローチを提案する。我々はRoBERTaと呼ばれる市販のニューラルネットワークを用いて,問題レポートの分類を行う。
論文 参考訳(メタデータ) (2022-02-12T21:43:08Z) - Predicting Issue Types on GitHub [8.791809365994682]
Ticket Taggerは、機械学習技術による課題のタイトルと説明を分析するGitHubアプリである。
私たちは、約30,000のGitHubイシューに対して、ツールの予測パフォーマンスを実証的に評価しました。
論文 参考訳(メタデータ) (2021-07-21T08:14:48Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z) - Exploiting Context for Robustness to Label Noise in Active Learning [47.341705184013804]
本稿では,どのラベルが間違っているのかをシステムがどのように識別するか,ラベルノイズの負の影響を最小限に抑えるために,マルチクラスアクティブラーニングシステムをどのように適用できるか,といった課題に対処する。
我々は、これらの関係を符号化し、ノイズラベルが利用できる場合にグラフ上の新しい信念を得るために、ラベルなしデータのグラフィカルな表現を構築した。
これはシーン分類、アクティビティ分類、文書分類の3つの異なる応用で実証されている。
論文 参考訳(メタデータ) (2020-10-18T18:59:44Z) - Learning to Purify Noisy Labels via Meta Soft Label Corrector [49.92310583232323]
最近のディープニューラルネットワーク(DNN)は、ノイズラベルによるバイアス付きトレーニングデータに容易に適合する。
ラベル修正戦略はこの問題を軽減するために一般的に用いられる。
メタ学習モデルを提案する。
論文 参考訳(メタデータ) (2020-08-03T03:25:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。