論文の概要: CoNCRA: A Convolutional Neural Network Code Retrieval Approach
- arxiv url: http://arxiv.org/abs/2009.01959v1
- Date: Thu, 3 Sep 2020 23:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 06:50:55.522565
- Title: CoNCRA: A Convolutional Neural Network Code Retrieval Approach
- Title(参考訳): concra:畳み込みニューラルネットワークのコード検索アプローチ
- Authors: Marcelo de Rezende Martins and Marco A. Gerosa
- Abstract要約: 本稿では,コード検索のための畳み込みニューラルネットワーク手法を提案する。
私たちの技術は、自然言語で表現された開発者の意図に最も近いコードスニペットを見つけることを目的としています。
Stack Overflowから収集した質問やコードスニペットからなるデータセットに対して,このアプローチの有効性を評価した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software developers routinely search for code using general-purpose search
engines. However, these search engines cannot find code semantically unless it
has an accompanying description. We propose a technique for semantic code
search: A Convolutional Neural Network approach to code retrieval (CoNCRA). Our
technique aims to find the code snippet that most closely matches the
developer's intent, expressed in natural language. We evaluated our approach's
efficacy on a dataset composed of questions and code snippets collected from
Stack Overflow. Our preliminary results showed that our technique, which
prioritizes local interactions (words nearby), improved the state-of-the-art
(SOTA) by 5% on average, retrieving the most relevant code snippets in the top
3 (three) positions by almost 80% of the time. Therefore, our technique is
promising and can improve the efficacy of semantic code retrieval.
- Abstract(参考訳): ソフトウェア開発者は汎用検索エンジンを使って定期的にコードを検索する。
しかし、これらの検索エンジンは、付随する記述がなければ、意味的にコードを見つけることができない。
本稿では,コード検索に対する畳み込みニューラルネットワークアプローチ(CoNCRA)を提案する。
私たちの技術は、自然言語で表現された開発者の意図に最も近いコードスニペットを見つけることを目的としています。
stack overflowから収集した質問とコードスニペットからなるデータセット上で,このアプローチの有効性を評価した。
予備的な結果から, 局所的なインタラクション(単語の近傍)を優先する手法により, 最先端技術(SOTA)を平均5%改善し, 上位3位(3位)のコードスニペットを約80%回収した。
したがって,本手法は有望であり,セマンティックコード検索の有効性を向上させることができる。
関連論文リスト
- NS3: Neuro-Symbolic Semantic Code Search [33.583344165521645]
私たちはこのアイデアを実装するためにNeural Module Networkアーキテクチャを使用します。
我々は、NS3 (Neuro-Symbolic Semantic Search) と、最先端のセマンティックコード検索方法を含む多くのベースラインを比較した。
提案手法により,より正確なコード検索が可能であることが実証され,コンポジションクエリ処理におけるモジュール設計の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-21T20:55:57Z) - Enhancing Semantic Code Search with Multimodal Contrastive Learning and
Soft Data Augmentation [50.14232079160476]
コード検索のためのマルチモーダルコントラスト学習とソフトデータ拡張を用いた新しい手法を提案する。
我々は,6つのプログラミング言語を用いた大規模データセットにおけるアプローチの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-07T08:49:27Z) - Accelerating Code Search with Deep Hashing and Code Classification [64.3543949306799]
コード検索とは、自然言語クエリに基づいてソースコードコーパスから再利用可能なコードスニペットを検索することである。
深層ハッシュとコード分類を用いたコード検索を高速化する新しい手法CoSHCを提案する。
論文 参考訳(メタデータ) (2022-03-29T07:05:30Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Learning Deep Semantic Model for Code Search using CodeSearchNet Corpus [17.6095840480926]
マルチモーダル・ソースのユーティリティを利用する新しいディープ・セマンティック・モデルを提案する。
提案したモデルを適用して,意味的コード検索に関するCodeSearchNetの課題に対処する。
我々のモデルはCodeSearchNetコーパスでトレーニングされ、ホールドアウトデータに基づいて評価され、最終モデルは0.384 NDCGに達し、このベンチマークで優勝した。
論文 参考訳(メタデータ) (2022-01-27T04:15:59Z) - Deep Graph Matching and Searching for Semantic Code Retrieval [76.51445515611469]
本稿では,グラフニューラルネットワークに基づくエンドツーエンドのディープグラフマッチングと探索モデルを提案する。
まず、自然言語クエリテキストとプログラミング言語のコードスニペットをグラフ構造化データで表現する。
特に、DGMSは、個々のクエリテキストやコードスニペットのより構造的な情報をキャプチャするだけでなく、それらの微妙な類似性も学習する。
論文 参考訳(メタデータ) (2020-10-24T14:16:50Z) - COSEA: Convolutional Code Search with Layer-wise Attention [90.35777733464354]
我々は、畳み込みニューラルネットワークを階層的注意で活用し、コード固有の構造論理をキャプチャする新しいディープラーニングアーキテクチャ、COSEAを提案する。
COSEAは、コード検索タスクの最先端メソッドよりも大幅に改善できる。
論文 参考訳(メタデータ) (2020-10-19T13:53:38Z) - Neural Code Search Revisited: Enhancing Code Snippet Retrieval through
Natural Language Intent [1.1168121941015012]
コードスニペットの意図をよりよく把握するために,記述を活用することで,コード検索システムを改善する方法について検討する。
翻訳学習と自然言語処理の最近の進歩に基づき,自然言語記述を付加したコードに対するドメイン固有検索モデルを構築した。
論文 参考訳(メタデータ) (2020-08-27T15:39:09Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。