論文の概要: Understanding Code Semantics: An Evaluation of Transformer Models in
Summarization
- arxiv url: http://arxiv.org/abs/2310.16314v2
- Date: Fri, 27 Oct 2023 01:22:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 10:52:08.410305
- Title: Understanding Code Semantics: An Evaluation of Transformer Models in
Summarization
- Title(参考訳): コードセマンティックスを理解する:要約におけるトランスフォーマーモデルの評価
- Authors: Debanjan Mondal, Abhilasha Lodha, Ankita Sahoo, Beena Kumari
- Abstract要約: 関数と変数名を変更することで,コード要約の有効性を評価する。
3つのプログラミング言語にまたがってデッドコードやコメントコードのような敵を導入します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper delves into the intricacies of code summarization using advanced
transformer-based language models. Through empirical studies, we evaluate the
efficacy of code summarization by altering function and variable names to
explore whether models truly understand code semantics or merely rely on
textual cues. We have also introduced adversaries like dead code and commented
code across three programming languages (Python, Javascript, and Java) to
further scrutinize the model's understanding. Ultimately, our research aims to
offer valuable insights into the inner workings of transformer-based LMs,
enhancing their ability to understand code and contributing to more efficient
software development practices and maintenance workflows.
- Abstract(参考訳): 本稿では,先進的なトランスフォーマーに基づく言語モデルを用いて,コード要約の複雑さを考察する。
経験的な研究を通じて,関数や変数名を変更することで,コードの意味論を真に理解しているか,あるいは単にテキストの手がかりに頼っているかを調べることで,コード要約の有効性を評価する。
また、デッドコードや3つのプログラミング言語(Python、Javascript、Java)にまたがるコメントコードのような敵も導入して、モデルの理解をさらに精査しています。
最終的には、トランスフォーマーベースのlmsの内部動作に関する貴重な洞察を提供し、コードを理解する能力を高め、より効率的なソフトウェア開発プラクティスとメンテナンスワークフローに貢献することを目標としています。
関連論文リスト
- Code Needs Comments: Enhancing Code LLMs with Comment Augmentation [91.52444946362547]
本稿では、既存のコードに対するコメントを生成する新しいデータ拡張手法と、自然言語と相関の低いコードデータをフィルタリングするデータフィルタリング戦略を導入する。
我々は3つのコード中心の大規模言語モデルの実験を行い、2つの広く使われているプログラミングスキルベンチマークで一貫した性能向上を観察した。
論文 参考訳(メタデータ) (2024-02-20T13:56:38Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code
Summarization [65.54811122644607]
新たなトレンドは、ニューラルモデルと外部知識を組み合わせることだ。
本稿では,バニラニューラルネットワークがより優れたコード要約を生成するのを支援するために,デコーダ側のトークンレベル検索強化機構について検討する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Code Execution with Pre-trained Language Models [88.04688617516827]
コードインテリジェンスのトレーニング済みモデルのほとんどは実行トレースを無視しており、ソースコードと構文構造のみに依存している。
我々は,大規模かつ現実的なPythonデータセットとコード実行タスクを作成するために,突然変異に基づくデータ拡張手法を開発した。
次に、コード実行事前学習とカリキュラム学習を活用して意味理解を強化するトランスフォーマーモデルであるCodeExecutorを提案する。
論文 参考訳(メタデータ) (2023-05-08T10:00:05Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Empirical Study of Transformers for Source Code [14.904366372190943]
本研究では,トランスフォーマーが様々なタスクで構文情報を利用する能力について検討する。
我々は,トランスフォーマーが純粋に構文情報に基づいて意味のある予測を行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-15T19:09:15Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z) - Leveraging Code Generation to Improve Code Retrieval and Summarization
via Dual Learning [18.354352985591305]
コード要約は、ソースコードスニペットが与えられた短い自然言語記述を生成し、コード検索は、自然言語クエリが与えられた関連するソースコードを取得する。
最近の研究は、これらの2つのタスクを組み合わせてパフォーマンスを改善している。
本稿では,新たなコード生成タスクを導入することによって,2つのタスクのエンド・ツー・エンド・モデルを提案する。
論文 参考訳(メタデータ) (2020-02-24T12:26:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。