論文の概要: SIT3: Code Summarization with Structure-Induced Transformer
- arxiv url: http://arxiv.org/abs/2012.14710v1
- Date: Tue, 29 Dec 2020 11:37:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:39:15.396008
- Title: SIT3: Code Summarization with Structure-Induced Transformer
- Title(参考訳): SIT3: 構造誘起変換器によるコード要約
- Authors: Hongqiu Wu and Hai Zhao and Min Zhang
- Abstract要約: シーケンシャル入力を高効率な構造モデリングでエンコードする構造誘起自己保持に基づく新しいモデルを提案する。
新たに提案したモデルでは,一般的なベンチマークで最新の結果が得られる。
- 参考スコア(独自算出の注目度): 48.000063280183376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code summarization (CS) is becoming a promising area in recent natural
language understanding, which aims to generate sensible annotations
automatically for source code and is known as programmer oriented. Previous
works attempt to apply structure-based traversal (SBT) or non-sequential models
like Tree-LSTM and GNN to learn structural program semantics. They both meet
the following drawbacks: 1) it is shown ineffective to incorporate SBT into
Transformer; 2) it is limited to capture global information through GNN; 3) it
is underestimated to capture structural semantics only using Transformer. In
this paper, we propose a novel model based on structure-induced self-attention,
which encodes sequential inputs with highly-effective structure modeling.
Extensive experiments show that our newly-proposed model achieves new
state-of-the-art results on popular benchmarks. To our best knowledge, it is
the first work on code summarization that uses Transformer to model structural
information with high efficiency and no extra parameters. We also provide a
tutorial on how we pre-process.
- Abstract(参考訳): コード要約(CS)は、ソースコードに対する意味のあるアノテーションを自動的に生成することを目的としており、プログラマ指向として知られている。
以前の研究は構造ベースのトラバーサル(sbt)やtree-lstmやgnnのような非系列モデルを適用して構造プログラムの意味学を学ぶことを試みた。
1) SBT を Transformer に組み込むのが効果的でないこと,2) グローバル情報を GNN で取得すること,3) 構造的意味論を Transformer でのみキャプチャすることを過小評価すること,などである。
本稿では, 逐次入力を高効率な構造モデルで符号化する, 構造誘起セルフアテンションに基づく新しいモデルを提案する。
広範な実験により,本モデルが人気のあるベンチマークで新たな最先端結果を得ることが示された。
私たちの知る限りでは、transformerを使って高効率で余分なパラメータのない構造情報をモデル化するコード要約に関する最初の作業です。
また、事前処理の方法についてのチュートリアルも提供します。
関連論文リスト
- Efficient Point Transformer with Dynamic Token Aggregating for Point Cloud Processing [19.73918716354272]
ポイントクラウド表現と処理のための動的トークン集約(DTA-Former)を用いた効率的なポイントトランスフォーマーを提案する。
ModelNet40、ShapeNet、航空機搭載MultiSpectral LiDAR(MS-LiDAR)データセット上の前点変換器よりも最大30$times$高速でSOTAパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-23T20:50:50Z) - Pushdown Layers: Encoding Recursive Structure in Transformer Language
Models [86.75729087623259]
再帰は人間の言語の特徴であり、本質的には自己注意に挑戦する。
この作業では、新しいセルフアテンション層であるPushdown Layersを導入している。
プッシュダウン層を備えたトランスフォーマーは、劇的に改善され、3.5倍の高効率な構文一般化を実現した。
論文 参考訳(メタデータ) (2023-10-29T17:27:18Z) - Structural Biases for Improving Transformers on Translation into
Morphologically Rich Languages [120.74406230847904]
TP-Transformerは従来のTransformerアーキテクチャを拡張し、構造を表現するコンポーネントを追加する。
第2の方法は、形態的トークン化でデータをセグメント化することで、データレベルで構造を付与する。
これらの2つのアプローチのそれぞれが、ネットワークがより良いパフォーマンスを達成することを可能にすることは分かっていますが、この改善はデータセットのサイズに依存します。
論文 参考訳(メタデータ) (2022-08-11T22:42:24Z) - Source Code Summarization with Structural Relative Position Guided
Transformer [19.828300746504148]
ソースコードの要約は、プログラミング言語の簡潔で明確な自然言語記述を生成することを目的としている。
近年の取り組みは、Transformerなどのニューラルネットワークにコードの構文構造を組み込むことに重点を置いている。
SCRIPTと呼ばれる構造相対位置案内変換器を提案する。
論文 参考訳(メタデータ) (2022-02-14T07:34:33Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - Improving Transformer-Kernel Ranking Model Using Conformer and Query
Term Independence [29.442579683405913]
Transformer-Kernel(TK)モデルは、TREC Deep Learningベンチマークで強力なリランクパフォーマンスを示しています。
TKLと呼ばれるTKモデルの変種が開発され、より長い入力シーケンスを効率的に処理するためにローカルの自己意識が組み込まれている。
本稿では,より長い入力列にtkをスケールするための代替手法として,新しい適合層を提案する。
論文 参考訳(メタデータ) (2021-04-19T15:32:34Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。