論文の概要: AutoUpdate: Automatically Recommend Code Updates for Android Apps
- arxiv url: http://arxiv.org/abs/2209.07048v2
- Date: Wed, 10 May 2023 15:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 14:55:14.161980
- Title: AutoUpdate: Automatically Recommend Code Updates for Android Apps
- Title(参考訳): autoupdate: androidアプリのコード更新を自動推奨する
- Authors: Yue Liu and Chakkrit Tantithamthavorn and Yonghui Liu and Patanamon
Thongtanunam and Li Li
- Abstract要約: 我々は,Androidアプリのコード更新を推奨するために,最先端のCodeLMを包括的に評価する。
Google Playで公開され、2008年から2022年の間にGitHubでホストされた3,195のAndroidアプリから、ペア化されたメソッドのユニークなデータセットをキュレートします。
その結果,事前学習したCodeLMは従来の手法よりも優れており,現実的な時間的評価シナリオ下では190%から385%の精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 16.09001796305279
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Android has become the predominant smartphone operating system, with a
rapidly evolving ecosystem that requires app developers to frequently update
their apps to maintain quality, security, and compatibility. While deep
learning has made significant strides in various software engineering tasks,
including automated code updates, existing methods are not specifically
tailored for Android apps, and the potential of pre-trained Language Models of
Code (CodeLMs) for updating Android app code remains unexplored. In this paper,
we present the first comprehensive evaluation of state-of-the-art CodeLMs,
including CodeT5, CodeBERT, CodeGPT, and UniXcoder, for recommending code
updates in Android applications. To facilitate this evaluation, we curate a
unique dataset of paired updated methods from 3,195 Android apps published on
Google Play and hosted on GitHub between 2008 and 2022. Our findings
demonstrate that pre-trained CodeLMs outperform traditional approaches,
achieving a higher accuracy ranging from 190% to 385% under a realistic
time-wise evaluation scenario. Among the CodeLMs, CodeT5 consistently exhibits
superior performance across most code update types. Furthermore, we examine the
impact of update types, evaluation scenarios, method size, and update size on
the performance of CodeLMs, revealing areas for future research to improve
temporal adaptability and generalization capabilities.
- Abstract(参考訳): Androidはスマートフォンオペレーティングシステムの主流となり、アプリの開発者は、品質、セキュリティ、互換性を維持するために頻繁にアプリをアップデートする必要がある。
ディープラーニングは、自動コード更新を含むさまざまなソフトウェアエンジニアリングタスクで大きな進歩を遂げているが、既存のメソッドはandroidアプリ向けに特別に調整されていない。
本稿では,Androidアプリケーションのコード更新を推奨するために,CodeT5,CodeBERT,CodeGPT,UniXcoderを含む最先端のCodeLMを包括的に評価する。
この評価を容易にするために、2008年から2022年にかけて、google playで公開され、githubでホストされた3,195のandroidアプリから、ペアで更新されたメソッドのユニークなデータセットをキュレートした。
その結果,事前学習したCodeLMは従来の手法よりも優れており,現実的な時間的評価シナリオ下では190%から385%の精度が得られた。
CodeLMの中で、CodeT5は、ほとんどのコード更新タイプで、一貫して優れたパフォーマンスを示している。
さらに,更新タイプ,評価シナリオ,メソッドサイズ,更新サイズが codelms の性能に与える影響について検討し,時間適応性と一般化能力を改善するための今後の研究領域を明らかにする。
関連論文リスト
- When LLM-based Code Generation Meets the Software Development Process [50.82665351100067]
本稿では,ソフトウェア工学の確立した実践に触発されたコード生成フレームワークであるLCGを紹介する。
LLMエージェントは、LCGWaterfall、LCGTDD、LCGScrumといった様々なソフトウェアプロセスモデルをエミュレートする。
我々は,HumanEval,HumanEval-ET,MBPP,MBPP-ETの4つのコード生成ベンチマークでLCGを評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z) - CodePori: Large Scale Model for Autonomous Software Development by Using
Multi-Agents [3.8066447473175304]
大規模言語モデル(LLM)とGPT(Generative Pre-trained Transformer)は、ソフトウェア工学(SE)の分野を変えつつある。
本稿では,自然言語のプロンプトに基づく大規模かつ複雑なソフトウェアプロジェクトのコード生成を自動化する新しいモデルであるCodePoriを紹介する。
論文では、CodePoriが大規模なプロジェクトのために実行中のコードを生成し、数時間ではなく数分でソフトウェア開発プロセス全体を完了し、数ドルというコストで実行可能であることを示しています。
論文 参考訳(メタデータ) (2024-02-02T13:42:50Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Generate and Pray: Using SALLMS to Evaluate the Security of LLM
Generated Code [0.7451457983372032]
大規模言語モデルによって生成されたコードが正しいだけでなく、脆弱性もないことを保証することが重要です。
LLM(Large Language Models)を評価するために使われる既存のデータセットは、セキュリティに敏感な真のソフトウェアエンジニアリングタスクを適切に表現していない。
生成されたコードのセキュリティを評価することに焦点を当てたベンチマークが明らかに欠落している。
論文 参考訳(メタデータ) (2023-11-01T22:46:31Z) - Multi-Objective Improvement of Android Applications [10.660480034605243]
7つのAndroidアプリの21バージョンのテストを書き、パフォーマンス改善のための新しいベンチマークを作成しました。
我々は、改良されたソフトウェアを見つけるために、ソフトウェア変種の範囲をナビゲートする検索ベースの技術である、遺伝的改善を使用している。
これらのアプリでは、実行時間を最大35%改善し、メモリ使用量を最大33%改善しました。
論文 参考訳(メタデータ) (2023-08-22T12:26:43Z) - Testing Updated Apps by Adapting Learned Models [2.362412515574206]
学習したモデルの継続的適応(CALM)は、アプリの更新を効率的にテストする自動テストアプローチである。
機能的正確性は、主にAppスクリーンの視覚的検査によって検証できるため、CALMは、ソフトウェアテスタによって視覚化されるAppスクリーンの数を最小化する。
実験により,CALMは6つの最先端手法よりも,更新手法と命令の比率が有意に高いことが示された。
論文 参考訳(メタデータ) (2023-08-10T12:59:24Z) - Multiplicative update rules for accelerating deep learning training and
increasing robustness [69.90473612073767]
我々は、幅広い機械学習アルゴリズムに適合し、代替の更新ルールを適用することができる最適化フレームワークを提案する。
提案するフレームワークはトレーニングを加速する一方、従来の追加更新ルールとは対照的に、より堅牢なモデルにつながります。
論文 参考訳(メタデータ) (2023-07-14T06:44:43Z) - CodeT5+: Open Code Large Language Models for Code Understanding and
Generation [72.1638273937025]
大きな言語モデル (LLM) は膨大なソースコードで事前訓練されており、コードインテリジェンスにおいて顕著な進歩を遂げている。
CodeT5+は、コンポーネントモジュールを柔軟に組み合わせて、幅広い下流のコードタスクに適合させることができるコードのためのエンコーダ-デコーダLLMのファミリーである。
我々は、ゼロショット、微調整、命令調整を含む20以上のコード関連ベンチマークでCodeT5+を広範囲に評価した。
論文 参考訳(メタデータ) (2023-05-13T14:23:07Z) - On the Usage of Continual Learning for Out-of-Distribution
Generalization in Pre-trained Language Models of Code [12.708117108874083]
事前学習型言語モデル(PLM)は、コードの深層学習において一般的な技術となっている。
本稿では,APIコールとAPI利用予測という2つの下流タスクで広く利用されているPLMアーキテクチャについて検討する。
これらの課題に対処するため,リプレイベースおよび正規化ベースの手法を含む5つの連続学習手法を実装した。
論文 参考訳(メタデータ) (2023-05-06T18:00:21Z) - ReCode: Robustness Evaluation of Code Generation Models [90.10436771217243]
コード生成モデルのための総合的ロバストネス評価ベンチマークであるReCodeを提案する。
ドクストリング、関数と変数名、コード構文、コードフォーマットのコードに特化して、30以上の変換をカスタマイズします。
ヒトのアノテータでは、摂動プロンプトの90%以上が本来のプロンプトの意味を変えていないことが確認された。
論文 参考訳(メタデータ) (2022-12-20T14:11:31Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。