論文の概要: A Machine Learning Approach Towards SKILL Code Autocompletion
- arxiv url: http://arxiv.org/abs/2312.01921v1
- Date: Mon, 4 Dec 2023 14:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:04:53.488167
- Title: A Machine Learning Approach Towards SKILL Code Autocompletion
- Title(参考訳): SKILLコード自動補完に向けた機械学習アプローチ
- Authors: Enrique Dehaerne, Bappaditya Dey, Wannes Meert
- Abstract要約: 本研究は,ハードウェア設計技術者の生産性向上に向けて,SKILLコードオートコンプリートにトランスフォーマーを適用した最初の事例である。
ラベル付きデータとラベル付きデータの両方で高品質なSKILLデータセットを作成するための新しい手法を提案する。
提案手法を用いて訓練されたモデルは,人間の判断スコアとBLEUスコアにおいて,ベースラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 6.586356094533907
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As Moore's Law continues to increase the complexity of electronic systems,
Electronic Design Automation (EDA) must advance to meet global demand. An
important example of an EDA technology is SKILL, a scripting language used to
customize and extend EDA software. Recently, code generation models using the
transformer architecture have achieved impressive results in academic settings
and have even been used in commercial developer tools to improve developer
productivity. To the best of our knowledge, this study is the first to apply
transformers to SKILL code autocompletion towards improving the productivity of
hardware design engineers. In this study, a novel, data-efficient methodology
for generating SKILL code is proposed and experimentally validated. More
specifically, we propose a novel methodology for (i) creating a high-quality
SKILL dataset with both unlabeled and labeled data, (ii) a training strategy
where T5 models pre-trained on general programming language code are fine-tuned
on our custom SKILL dataset using unsupervised and supervised learning, and
(iii) evaluating synthesized SKILL code. We show that models trained using the
proposed methodology outperform baselines in terms of human-judgment score and
BLEU score. A major challenge faced was the extremely small amount of available
SKILL code data that can be used to train a transformer model to generate SKILL
code. Despite our validated improvements, the extremely small dataset available
to us was still not enough to train a model that can reliably autocomplete
SKILL code. We discuss this and other limitations as well as future work that
could address these limitations.
- Abstract(参考訳): ムーアの法則は電子システムの複雑さを増し続けており、Electronic Design Automation(EDA)は世界的な需要を満たすために前進しなければならない。
EDA技術の重要な例は、EDAソフトウェアのカスタマイズと拡張に使用されるスクリプト言語であるSKILLである。
最近のtransformerアーキテクチャを用いたコード生成モデルは、学術的な環境で素晴らしい結果をもたらし、開発者生産性を向上させるために商用開発ツールにも使われています。
我々の知る限りでは、ハードウェア設計技術者の生産性向上にトランスフォーマーをSKILLコードオートコンプリートに適用するのは、この研究が初めてである。
本研究では,新しいデータ効率の高いスキルコード生成手法を提案し,実験的に検証した。
具体的には,新しい方法論を提案する。
i)ラベル付きデータとラベル付きデータの両方で高品質なSKILLデータセットを作成する。
(II)教師なしおよび教師なし学習を用いて、我々のカスタムSKILLデータセット上で、汎用プログラミング言語コード上で事前訓練されたT5モデルを微調整する訓練戦略。
(iii)合成SKILL符号の評価。
提案手法を用いて学習したモデルは,人間の判断スコアとブレウスコアの点でベースラインを上回っている。
直面した大きな課題は、SKILLコードを生成するためにトランスフォーマーモデルをトレーニングするために使用できる非常に少ないSKILLコードデータであった。
私たちの検証した改善にもかかわらず、利用可能な非常に小さなデータセットは、確実に自動補完スキルコードをトレーニングするには不十分でした。
これらの制限に対処できる将来的な作業だけでなく、これや他の制限についても議論する。
関連論文リスト
- A Transformer-Based Approach for Smart Invocation of Automatic Code Completion [14.34818742116731]
コード補完ツールの起動時期を予測する機械学習モデルを開発した。
クロスIDEコード補完プラグインと200万の開発者インタラクションのデータセットを収集します。
以上の結果から,我々の小型変圧器モデルがベースラインを大きく上回っていることが示唆された。
論文 参考訳(メタデータ) (2024-05-23T16:19:32Z) - Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - TransformCode: A Contrastive Learning Framework for Code Embedding via Subtree Transformation [9.477734501499274]
コード埋め込みを対照的な学習方法で学習する新しいフレームワークであるTransformCodeを提案する。
我々のフレームワークはエンコーダに依存しない言語に依存しないので、どんなエンコーダモデルでも活用でき、どんなプログラミング言語でも扱える。
論文 参考訳(メタデータ) (2023-11-10T09:05:23Z) - Enhancing Automated Program Repair through Fine-tuning and Prompt
Engineering [2.3826139428423576]
シーケンス・ツー・シーケンスのモデルは、十分に大規模なデータセットでトレーニングされた時に、誤ったプログラムを正しいプログラムに変換するために使われてきた。
いくつかの最近の研究は、コードレビューがプログラムの修復をさらに改善できるという強い実証的な証拠を示した。
PLとNLの本質的な知識が,プログラムの自動修復の改善に有効かどうかを検討する。
論文 参考訳(メタデータ) (2023-04-16T17:29:51Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。