論文の概要: AutoFL: A Tool for Automatic Multi-granular Labelling of Software Repositories
- arxiv url: http://arxiv.org/abs/2408.02557v1
- Date: Mon, 5 Aug 2024 15:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 13:07:17.412942
- Title: AutoFL: A Tool for Automatic Multi-granular Labelling of Software Repositories
- Title(参考訳): AutoFL: ソフトウェアリポジトリの自動多言語ラベリングツール
- Authors: Cezar Sas, Andrea Capiluppi,
- Abstract要約: AutoFLは、ソースコードからソフトウェアリポジトリを自動的にラベル付けするツールである。
textitfile、textitpackage、textitproject-levelを含む、複数の粒度のアノテーションを可能にする。
- 参考スコア(独自算出の注目度): 6.0158981171030685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software comprehension, especially of new code bases, is time consuming for developers, especially in large projects with multiple functionalities spanning various domains. One strategy to reduce this effort involves annotating files with meaningful labels that describe the functionalities contained. However, prior research has so far focused on classifying the whole project using README files as a proxy, resulting in little information gained for the developers. Our objective is to streamline the labelling of files with the correct application domains using source code as input. To achieve this, in prior work, we evaluated the ability to annotate files automatically using a weak labelling approach. This paper presents AutoFL, a tool for automatically labelling software repositories from source code. AutoFL allows multi-granular annotations including: \textit{file}, \textit{package}, and \textit{project} -level. We provide an overview of the tool's internals, present an example analysis for which AutoFL can be used, and discuss limitations and future work.
- Abstract(参考訳): ソフトウェアの理解、特に新しいコードベースは、開発者、特にさまざまなドメインにまたがる複数の機能を持つ大規模プロジェクトでは時間がかかります。
この作業を減らすための1つの戦略は、含まれている機能を記述する意味のあるラベルでファイルに注釈を付けることである。
しかし、これまでの研究はREADMEファイルをプロキシとして使用してプロジェクト全体を分類することに重点を置いており、結果として開発者からの情報はほとんど得られていない。
我々の目標は、ソースコードを入力として、適切なアプリケーションドメインでファイルのラベル付けを合理化することです。
これを実現するために,従来の研究において,弱いラベル付け手法を用いて自動アノテート機能の評価を行った。
本稿では,ソースコードからソフトウェアリポジトリを自動的にラベル付けするツールであるAutoFLについて述べる。
AutoFLは、以下の複数の粒度のアノテーションを可能にする。
ツールの内部について概説し、AutoFLが利用可能な例分析を行い、制約と今後の作業について議論する。
関連論文リスト
- Chain of Tools: Large Language Model is an Automatic Multi-tool Learner [54.992464510992605]
Automatic Tool Chain(ATC)は、大規模言語モデル(LLM)がマルチツールユーザとして機能することを可能にするフレームワークである。
次に,ツールの範囲を拡大するために,ブラックボックス探索法を提案する。
包括的な評価のために、ToolFlowという挑戦的なベンチマークを構築しました。
論文 参考訳(メタデータ) (2024-05-26T11:40:58Z) - Automated User Story Generation with Test Case Specification Using Large Language Model [0.0]
要件文書からユーザストーリーを自動生成するツール「GeneUS」を開発した。
アウトプットはフォーマットで提供され、ダウンストリーム統合の可能性は人気のあるプロジェクト管理ツールに開放されます。
論文 参考訳(メタデータ) (2024-04-02T01:45:57Z) - Multi-granular Software Annotation using File-level Weak Labelling [7.106986689736827]
本稿では,弱いラベル付け手法と階層的アグリゲーションを用いたソースコードファイルのアノテート手法を提案する。
本手法がソフトウェアプロジェクトのマルチグラニュラアノテーションの実現に有効かどうかを評価する。
論文 参考訳(メタデータ) (2023-11-20T08:48:18Z) - LILO: Learning Interpretable Libraries by Compressing and Documenting Code [71.55208585024198]
LILOは、反復的に合成、圧縮、文書化を行う、ニューロシンボリックなフレームワークである。
LILOは、LLM誘導プログラム合成と、Stitchから自動化された最近のアルゴリズムの進歩を組み合わせたものである。
LILOのシンセサイザーが学習した抽象化を解釈し、デプロイするのを手助けすることで、AutoDocがパフォーマンスを向上させることが分かりました。
論文 参考訳(メタデータ) (2023-10-30T17:55:02Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - LARCH: Large Language Model-based Automatic Readme Creation with
Heuristics [9.820370420194948]
大規模言語モデル(LLM)は,リポジトリを表すコードフラグメントを識別できれば,一貫性のある,事実上正しい読み出しを生成することができることを示す。
LARCH (LLM-based Automatic Readme Creation with Heuristics) を開発した。
LARCHは、ほとんどのケースにおいて整合的で事実的に正しい読み出しを生成できることを示し、代表的なコード識別に依存しないベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-06T12:28:24Z) - ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world
APIs [104.37772295581088]
オープンソースの大規模言語モデル(LLM)、例えばLLaMAは、ツール使用能力に大きく制限されている。
データ構築、モデルトレーニング、評価を含む汎用ツールであるToolLLMを紹介する。
ツール使用のためのインストラクションチューニングフレームワークであるToolBenchを,ChatGPTを使って自動構築する。
論文 参考訳(メタデータ) (2023-07-31T15:56:53Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - MEGAnno: Exploratory Labeling for NLP in Computational Notebooks [9.462926987075122]
本稿では,NLP実践者と研究者を対象とした新しいアノテーションフレームワークMEGAnnoを紹介する。
MEGAnnoを使えば、ユーザーは高度な検索機能と対話型提案機能を通じてデータを探索できる。
我々は,MEGAnnoのフレキシブル,探索的,効率的,シームレスなラベル付け体験を感情分析のユースケースを通じて実証する。
論文 参考訳(メタデータ) (2023-01-08T19:16:22Z) - FETA: Towards Specializing Foundation Models for Expert Task
Applications [49.57393504125937]
ファンデーションモデル(FM)は、ゼロショット学習、高忠実度データ合成、ドメインの一般化など、前例のない機能を示した。
この論文では、FMは、まだ専門家のタスクにおいて、出来の悪いパフォーマンスを保っていることを示します。
本稿では,FMに技術資料の理解を促すことを目的として,その第1のFETAベンチマークを提案する。
論文 参考訳(メタデータ) (2022-09-08T08:47:57Z) - LabelGit: A Dataset for Software Repositories Classification using
Attributed Dependency Graphs [11.523471275501857]
LabelGitと呼ばれるGitHubプロジェクトの新しいデータセットを作成します。
私たちのデータセットは、依存関係グラフや識別子からのソースコードニューラル表現など、ソースコードからの直接的な情報を使用します。
プロキシに頼らず、ソースコード全体を分類するために使用するソリューションの開発を支援することを願っています。
論文 参考訳(メタデータ) (2021-03-16T07:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。