論文の概要: AutoUpdate: Automatically Recommend Code Updates for Android Apps
- arxiv url: http://arxiv.org/abs/2209.07048v2
- Date: Wed, 10 May 2023 15:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 14:55:14.161980
- Title: AutoUpdate: Automatically Recommend Code Updates for Android Apps
- Title(参考訳): autoupdate: androidアプリのコード更新を自動推奨する
- Authors: Yue Liu and Chakkrit Tantithamthavorn and Yonghui Liu and Patanamon
Thongtanunam and Li Li
- Abstract要約: 我々は,Androidアプリのコード更新を推奨するために,最先端のCodeLMを包括的に評価する。
Google Playで公開され、2008年から2022年の間にGitHubでホストされた3,195のAndroidアプリから、ペア化されたメソッドのユニークなデータセットをキュレートします。
その結果,事前学習したCodeLMは従来の手法よりも優れており,現実的な時間的評価シナリオ下では190%から385%の精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 16.09001796305279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Android has become the predominant smartphone operating system, with a
rapidly evolving ecosystem that requires app developers to frequently update
their apps to maintain quality, security, and compatibility. While deep
learning has made significant strides in various software engineering tasks,
including automated code updates, existing methods are not specifically
tailored for Android apps, and the potential of pre-trained Language Models of
Code (CodeLMs) for updating Android app code remains unexplored. In this paper,
we present the first comprehensive evaluation of state-of-the-art CodeLMs,
including CodeT5, CodeBERT, CodeGPT, and UniXcoder, for recommending code
updates in Android applications. To facilitate this evaluation, we curate a
unique dataset of paired updated methods from 3,195 Android apps published on
Google Play and hosted on GitHub between 2008 and 2022. Our findings
demonstrate that pre-trained CodeLMs outperform traditional approaches,
achieving a higher accuracy ranging from 190% to 385% under a realistic
time-wise evaluation scenario. Among the CodeLMs, CodeT5 consistently exhibits
superior performance across most code update types. Furthermore, we examine the
impact of update types, evaluation scenarios, method size, and update size on
the performance of CodeLMs, revealing areas for future research to improve
temporal adaptability and generalization capabilities.
- Abstract(参考訳): Androidはスマートフォンオペレーティングシステムの主流となり、アプリの開発者は、品質、セキュリティ、互換性を維持するために頻繁にアプリをアップデートする必要がある。
ディープラーニングは、自動コード更新を含むさまざまなソフトウェアエンジニアリングタスクで大きな進歩を遂げているが、既存のメソッドはandroidアプリ向けに特別に調整されていない。
本稿では,Androidアプリケーションのコード更新を推奨するために,CodeT5,CodeBERT,CodeGPT,UniXcoderを含む最先端のCodeLMを包括的に評価する。
この評価を容易にするために、2008年から2022年にかけて、google playで公開され、githubでホストされた3,195のandroidアプリから、ペアで更新されたメソッドのユニークなデータセットをキュレートした。
その結果,事前学習したCodeLMは従来の手法よりも優れており,現実的な時間的評価シナリオ下では190%から385%の精度が得られた。
CodeLMの中で、CodeT5は、ほとんどのコード更新タイプで、一貫して優れたパフォーマンスを示している。
さらに,更新タイプ,評価シナリオ,メソッドサイズ,更新サイズが codelms の性能に与える影響について検討し,時間適応性と一般化能力を改善するための今後の研究領域を明らかにする。
関連論文リスト
- CodeDPO: Aligning Code Models with Self Generated and Verified Source Code [52.70310361822519]
我々は、コード生成に好み学習を統合するフレームワークであるCodeDPOを提案し、コードの正確性と効率性という2つの重要なコード優先要因を改善した。
CodeDPOは、コードとテストケースを同時に生成、評価するセルフジェネレーション・アンド・バリデーションメカニズムを利用して、新しいデータセット構築方法を採用している。
論文 参考訳(メタデータ) (2024-10-08T01:36:15Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - APILOT: Navigating Large Language Models to Generate Secure Code by Sidestepping Outdated API Pitfalls [15.865915079829943]
APILOTは、時代遅れのAPIのリアルタイム、即時更新可能なデータセットを維持している。
拡張ジェネレーションメソッドを使用して、セキュアでバージョン対応のコードを生成するLLMをナビゲートする。
古いコードレコメンデーションを平均89.42%削減し、パフォーマンス上のオーバーヘッドを制限できる。
論文 参考訳(メタデータ) (2024-09-25T00:37:40Z) - A Survey on Evaluating Large Language Models in Code Generation Tasks [30.256255254277914]
本稿では,コード生成タスクにおけるLarge Language Models (LLMs) の性能評価に使用される現在の手法と指標について概説する。
自動ソフトウェア開発の需要が急速に増加し、LLMはコード生成の分野で大きな可能性を示してきた。
論文 参考訳(メタデータ) (2024-08-29T12:56:06Z) - An Empirical Study on Self-correcting Large Language Models for Data Science Code Generation [1.335664823620186]
大規模言語モデル(LLM)は最近、ソフトウェア工学のタスクに多くの応用を進歩させた。
CoT-SelfEvolveは、自己修正プロセスを通じて、反復的かつ自動的にコードを洗練する。
論文 参考訳(メタデータ) (2024-08-28T09:19:09Z) - CodeUpdateArena: Benchmarking Knowledge Editing on API Updates [77.81663273436375]
コードドメインの知識編集のためのベンチマークであるCodeUpdateArenaを提示する。
私たちのベンチマークのインスタンスは、プログラム合成例と組み合わせた合成API関数のアップデートで構成されています。
ベンチマークでは、7つのPythonパッケージから54の関数へ、さまざまなタイプの更新をカバーしています。
論文 参考訳(メタデータ) (2024-07-08T17:55:04Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - Automating Patch Set Generation from Code Review Comments Using Large Language Models [2.045040820541428]
5つの人気のあるLarge Language Model(LLM)にコードコンテキストを提供します。
実世界のコードレビューコメントから提案したコード変更(パッチセット)を得る。
生成したパッチセットを人為的なパッチセットの履歴データと比較することにより、各モデルの性能を慎重に評価する。
論文 参考訳(メタデータ) (2024-04-10T02:46:08Z) - CodeEditorBench: Evaluating Code Editing Capability of Large Language Models [49.387195629660994]
コードのための大規模言語モデル(LLM)は急速に進化しており、コード編集が重要な機能として現れている。
コード編集タスクにおけるLLMの性能を厳格に評価するための評価フレームワークであるCodeEditorBenchを紹介する。
5つのソースからさまざまなコーディング課題やシナリオをキュレートし、さまざまなプログラミング言語、複雑性レベル、編集タスクをカバーしています。
論文 参考訳(メタデータ) (2024-04-04T15:49:49Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。