論文の概要: Reading StackOverflow Encourages Cheating: Adding Question Text Improves
Extractive Code Generation
- arxiv url: http://arxiv.org/abs/2106.04447v1
- Date: Tue, 8 Jun 2021 15:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 16:01:33.101352
- Title: Reading StackOverflow Encourages Cheating: Adding Question Text Improves
Extractive Code Generation
- Title(参考訳): StackOverflowを読む:質問文を追加して抽出コード生成を改善する
- Authors: Gabriel Orlanski and Alex Gittens
- Abstract要約: 我々は、CoNaLaデータセットからの対応する意図と合わせて使用する4万以上のStackOverflow質問テキストのコーパスを提示する。
我々は、BARTを使用して、この新しいタスクに対して基準BLEUスコア34.35を確立する。
この追加データを用いて先行最先端のCoNaLaモデルを評価し,提案手法が先行最先端のBLEUスコアを71.96%$で上回っていることを確認した。
- 参考スコア(独自算出の注目度): 8.9598796481325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answering a programming question using only its title is difficult as salient
contextual information is omitted. Based on this observation, we present a
corpus of over 40,000 StackOverflow question texts to be used in conjunction
with their corresponding intents from the CoNaLa dataset (Yin et al., 2018).
Using both the intent and question body, we use BART to establish a baseline
BLEU score of 34.35 for this new task. We find further improvements of $2.8\%$
by combining the mined CoNaLa data with the labeled data to achieve a 35.32
BLEU score. We evaluate prior state-of-the-art CoNaLa models with this
additional data and find that our proposed method of using the body and mined
data beats the BLEU score of the prior state-of-the-art by $71.96\%$. Finally,
we perform ablations to demonstrate that BART is an unsupervised multimodal
learner and examine its extractive behavior. The code and data can be found
https://github.com/gabeorlanski/stackoverflow-encourages-cheating.
- Abstract(参考訳): 厳格な文脈情報が省略されるため、タイトルだけでプログラミング質問に答えるのは困難である。
この観察に基づいて,conalaデータセット(yin et al., 2018)から得られたインテントと合わせて,4万以上のstackoverflow質問テキストのコーパスを提案する。
インテントと質問体の両方を用いて、我々はBARTを使用して、この新しいタスクのベースラインBLEUスコア34.35を確立する。
採掘されたコナラデータとラベル付きデータを組み合わせて、35.32 bleuスコアを達成することでさらに2.8\%$の改善が得られた。
この追加データを用いて先行技術のCoNaLaモデルの評価を行い,提案手法が先行技術のBLEUスコアを71.96 %$で上回っていることを確認した。
最後に,BARTが教師なしマルチモーダル学習者であることを証明し,その抽出行動について検討する。
コードとデータはhttps://github.com/gabeorlanski/stackoverflow-encourages-cheatingにある。
関連論文リスト
- Leveraging Closed-Access Multilingual Embedding for Automatic Sentence
Alignment in Low Resource Languages [2.4023321876826462]
クローズドアクセスのCohere多言語埋め込みを慎重に活用する,単純だが定性的な並列文整合器を提案する。
提案されたアプローチはFLORESとMAFAND-MTで94.96ドルと54.83ドルのf1スコアを獲得し、それぞれ3.64ドルと0.64ドルのLASERを獲得した。
また,MAFAND-MTを用いて翻訳モデルのトレーニングを行った場合,LASERよりも5 BLEUスコアが向上した。
論文 参考訳(メタデータ) (2023-11-20T20:48:25Z) - On Exploring Node-feature and Graph-structure Diversities for Node Drop
Graph Pooling [86.65151066870739]
現在のノードドロッププーリング法は、ノードの特徴やグラフ構造の観点からグラフの多様性を無視し、結果としてグラフレベル以下の表現をもたらす。
そこで本稿では,textiti.fltextbfIpscore と textbfDropscore の2つの操作を持つ textbfMulti スコア空間からなる MID を新たに提案する。
具体的には、多次元スコア空間は、複数の基準を通してノードの重要さを描いており、フリップスコアは異種ノードの維持を奨励している。
論文 参考訳(メタデータ) (2023-06-22T08:02:01Z) - Going beyond research datasets: Novel intent discovery in the industry
setting [60.90117614762879]
本稿では,大規模なeコマースプラットフォームに展開する意図発見パイプラインを改善する手法を提案する。
ドメイン内データに基づく事前学習型言語モデルの利点を示す。
また,クラスタリングタスクの微調整中に,実生活データセットの会話構造(質問と回答)を利用するための最善の方法も考案した。
論文 参考訳(メタデータ) (2023-05-09T14:21:29Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Building an Icelandic Entity Linking Corpus [2.2835610890984164]
我々は,多言語エンティティリンクモデル(mGENRE)とウィキペディアAPI検索(WAPIS)を組み合わせることで,データのラベル付けを行うアプローチについて述べる。
WAPISのみを用いた場合の30.9%に比べ,この組み合わせはコーパスの53.9%に達することがわかった。
論文 参考訳(メタデータ) (2022-06-10T12:01:57Z) - FACOS: Finding API Relevant Contents on Stack Overflow with Semantic and
Syntactic Analysis [6.637414972724093]
本研究では,文節とコードスニペットの意味的・統語的情報を抽出する文脈特化アルゴリズムであるFACOSを開発した。
F1スコアでは、FACOSは最先端のアプローチを13.9%上回っている。
論文 参考訳(メタデータ) (2021-11-14T04:07:45Z) - Text-Based Person Search with Limited Data [66.26504077270356]
テキストベースの人物検索(TBPS)は、画像ギャラリーから対象人物を記述的なテキストクエリで検索することを目的としている。
限られたデータによってもたらされる問題に対処する2つの新しいコンポーネントを持つフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:20:47Z) - BdSL36: A Dataset for Bangladeshi Sign Letters Recognition [4.010701467679244]
バングラデシュ手話(バングラデシュ語:BdSL)はバングラデシュの聴覚障害者のためのコミュニケーション手段である。
本稿では,BdSL36というデータセットについて述べる。
さらに,オブジェクト検出アルゴリズムの可能性を利用するため,約4万枚の画像にバウンディングボックスを付加したアノテートを行った。
論文 参考訳(メタデータ) (2021-10-02T19:52:48Z) - BARTScore: Evaluating Generated Text as Text Generation [89.50052670307434]
我々は、事前学習されたシーケンス・ツー・シーケンスモデルを用いてモデル化されたテキスト生成問題として、生成されたテキストの評価を概念化する。
我々は、エンコーダ-デコーダベースの事前学習モデルであるBARTを用いて、このアイデアを運用する。
本稿では,様々な視点からテキストの評価に柔軟に適用可能な,数多くの変種を持つメトリクスBARTScoreを提案する。
論文 参考訳(メタデータ) (2021-06-22T03:20:53Z) - Out-of-Vocabulary Entities in Link Prediction [1.9036571490366496]
リンク予測はしばしば、埋め込みの品質を評価するプロキシとして使用される。
ベンチマークはアルゴリズムの公正な比較に欠かせないため、より良いソリューションを開発するための確固たる基盤を提供するため、その品質が確実に確保される。
我々は、そのようなエンティティの発見と削除のためのアプローチの実装を提供し、データセットWN18RR、FB15K-237、YAGO3-10の修正版を提供する。
論文 参考訳(メタデータ) (2021-05-26T12:58:18Z) - If beam search is the answer, what was the question? [78.71330480725668]
ビームサーチは、認知科学に動機づけられた特性であるテキストの均一な情報密度を強制する。
この特性を明示的に強制する復号対象のセットを提案し、これらの目的による正確な復号化は、校正の不十分な言語生成モデルの復号時に発生する問題を緩和する。
論文 参考訳(メタデータ) (2020-10-06T11:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。