論文の概要: HierarchyNet: Learning to Summarize Source Code with Heterogeneous
Representations
- arxiv url: http://arxiv.org/abs/2205.15479v3
- Date: Tue, 9 May 2023 09:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 21:00:30.114733
- Title: HierarchyNet: Learning to Summarize Source Code with Heterogeneous
Representations
- Title(参考訳): HierarchyNet: ソースコードを不均一表現で要約する学習
- Authors: Minh Huynh Nguyen, Nghi D. Q. Bui, Truong Son Hy, Long Tran-Thanh,
Tien N. Nguyen
- Abstract要約: 本稿では,HCR(Heterogeneous Code Representations)と特殊設計したHierarchyNetを用いたコード要約手法を提案する。
HCRは、粗粒度のコード要素を抽象化し、階層構造に細粒度のプログラム要素を組み込むことで、語彙、構文、意味レベルで重要なコード特徴を効果的にキャプチャする。
我々はHCRの各層をヘテロジニアスグラフ変換器,ツリーベースCNN,変換器のユニークな組み合わせにより個別に処理する。
- 参考スコア(独自算出の注目度): 31.5460817913009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for code summarization utilizing Heterogeneous Code
Representations (HCRs) and our specially designed HierarchyNet. HCRs
effectively capture essential code features at lexical, syntactic, and semantic
levels by abstracting coarse-grained code elements and incorporating
fine-grained program elements in a hierarchical structure. Our HierarchyNet
method processes each layer of the HCR separately through a unique combination
of the Heterogeneous Graph Transformer, a Tree-based CNN, and a Transformer
Encoder. This approach preserves dependencies between code elements and
captures relations through a novel Hierarchical-Aware Cross Attention layer.
Our method surpasses current state-of-the-art techniques, such as PA-Former,
CAST, and NeuralCodeSum.
- Abstract(参考訳): 本稿では,HCR(Heterogeneous Code Representations)と特殊設計したHierarchyNetを用いたコード要約手法を提案する。
HCRは、粗粒度のコード要素を抽象化し、階層構造に細粒度のプログラム要素を組み込むことによって、語彙、構文、意味レベルで重要なコード特徴を効果的にキャプチャする。
HCRの各レイヤは、ヘテロジニアスグラフ変換器、ツリーベースCNN、トランスフォーマーエンコーダのユニークな組み合わせによって個別に処理される。
このアプローチは、コード要素間の依存関係を保持し、新しい階層型クロスアテンションレイヤを通じて関係をキャプチャする。
提案手法は,PA-FormerやCAST,NeuralCodeSumといった最先端技術を上回る。
関連論文リスト
- A TextGCN-Based Decoding Approach for Improving Remote Sensing Image Captioning [0.15346678870160887]
テキストグラフ畳み込みネットワーク(TextGCN)と多層LSTMをデプロイする新しいエンコーダデコーダ構成を提案する。
TextGCNによって生成された埋め込みは、文レベルとコーパスレベルの両方で単語間の意味的関係をキャプチャすることでデコーダの理解を高める。
我々は,他の最先端のエンコーダ・デコーダフレームワークに対して,我々のアプローチを広範囲に評価する。
論文 参考訳(メタデータ) (2024-09-27T06:12:31Z) - Outline, Then Details: Syntactically Guided Coarse-To-Fine Code
Generation [61.50286000143233]
ChainCoderは、Pythonコードを段階的に生成するプログラム合成言語モデルである。
自然言語記述と構文的に整合したI/Oデータサンプルを共同で符号化するために、カスタマイズされたトランスフォーマーアーキテクチャを利用する。
論文 参考訳(メタデータ) (2023-04-28T01:47:09Z) - CSSAM:Code Search via Attention Matching of Code Semantics and
Structures [8.547332796736107]
本稿では,CSSAM (Code Semantics and Structures Attention Matching) というコード検索モデルを提案する。
意味的および構造的マッチング機構を導入することにより、CSSAMは多次元コードの特徴を効果的に抽出し、融合する。
残りのインタラクションを活用することで、マッチングモジュールはより多くのコードセマンティクスと記述的機能を保持するように設計されている。
論文 参考訳(メタデータ) (2022-08-08T05:45:40Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Improving Code Summarization with Block-wise Abstract Syntax Tree
Splitting [15.28941592388958]
ソースコードの構文構造を表現した抽象構文木(AST)がコード要約の生成をガイドするために組み込まれている。
既存のastベースのメソッドはトレーニングが困難で、不適切なコード要約を生成する。
ASTのリッチツリー形式の構文構造をフル活用したBlock-wise Abstract Syntax Tree Splitting法(BASTS)を提案する。
論文 参考訳(メタデータ) (2021-03-14T05:04:06Z) - A Holistically-Guided Decoder for Deep Representation Learning with
Applications to Semantic Segmentation and Object Detection [74.88284082187462]
一般的な戦略の1つは、バックボーンネットワークに拡張畳み込みを採用し、高解像度のフィーチャーマップを抽出することです。
本稿では,高分解能なセマンティクスリッチな特徴マップを得るために紹介される,新たなホリスティック誘導デコーダを提案する。
論文 参考訳(メタデータ) (2020-12-18T10:51:49Z) - EfficientFCN: Holistically-guided Decoding for Semantic Segmentation [49.27021844132522]
最先端セマンティックセマンティックセグメンテーションアルゴリズムは主に拡張されたFully Convolutional Networks (DilatedFCN)に基づいている
本稿では,拡張畳み込みのないイメージネット事前学習ネットワークをバックボーンとする,効率的なFCNを提案する。
このようなフレームワークは、計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T14:48:23Z) - Rethinking and Improving Natural Language Generation with Layer-Wise
Multi-View Decoding [59.48857453699463]
シーケンシャル・ツー・シーケンス学習では、デコーダは注意機構に依存してエンコーダから情報を効率的に抽出する。
近年の研究では、異なるエンコーダ層からの表現を多様なレベルの情報に利用することが提案されている。
本稿では, 各デコーダ層に対して, グローバルビューとして機能する最後のエンコーダ層からの表現とともに, ソースシーケンスの立体視のために他のエンコーダ層からのデコーダ層からのデコーダ層を補足するレイヤワイド・マルチビューデコーダを提案する。
論文 参考訳(メタデータ) (2020-05-16T20:00:39Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。