論文の概要: On-the-Fly Syntax Highlighting: Generalisation and Speed-ups
- arxiv url: http://arxiv.org/abs/2402.08754v1
- Date: Tue, 13 Feb 2024 19:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:56:20.024816
- Title: On-the-Fly Syntax Highlighting: Generalisation and Speed-ups
- Title(参考訳): On-Fly Syntax Highlighting: 一般化とスピードアップ
- Authors: Marco Edoardo Palma, Alex Wolf, Pasquale Salza, Harald C. Gall
- Abstract要約: オンザフライ構文強調は、視覚二次表記値を言語派生のそれぞれの文字と素早く関連付けるタスクである。
スピード制約はツールのユーザビリティを保証するために不可欠であり、オンラインソースコードにアクセスするエンドユーザの応答性を示す。
コードの理解力を高めるためには、正確なハイライトを達成することが重要です。
このようなリゾルバの開発コストに対処することは、多くのプログラミング言語のバージョンを考えると必須である。
- 参考スコア(独自算出の注目度): 2.208443815105053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-the-fly syntax highlighting is the task of rapidly associating visual
secondary notation values with each character of a language derivation.
Research in this domain is driven by the prevalence of online software
development tools, which frequently display source code on screen and heavily
rely on syntax highlighting mechanisms. In this context, three contrasting
demands confront resolvers in this space: speed, accuracy, and development
costs. Speed constraints are essential to ensure tool usability, manifesting as
responsiveness for end users accessing online source code and minimising system
overhead. Simultaneously, achieving precise highlighting is critical for
enhancing code comprehensibility. Nevertheless, obtaining accurate results
necessitates the capacity to perform grammatical analysis on the code under
consideration, even in cases of varying grammatical correctness. Furthermore,
addressing the development costs of such resolvers is imperative, given the
multitude of programming language versions. The current state-of-the-art
approach in this field leverages the original lexer and parser of programming
languages to create syntax highlighting oracles, subsequently used for training
base Recurrent Neural Network models. As the question of the generalisation of
such a solution persists, this paper addresses this aspect by extending the
original work to three additional mainstream programming languages and
conducting a comprehensive review of the outcomes. Moreover, the original
limitations in evaluation performance and training costs are mitigated through
the introduction of a novel Convolutional based Neural Network model. This
study examines the performance gains of running models on GPUs, finding that
the new CNN implementation is much faster than previous methods while
maintaining high accuracy.
- Abstract(参考訳): オンザフライ構文強調は、視覚二次表記値を言語派生の各文字と素早く関連付けるタスクである。
この領域の研究は、しばしばソースコードを画面に表示し、シンタックスハイライト機構に大きく依存するオンラインソフトウェア開発ツールの普及によって進められている。
この文脈では、この領域における3つの対照的な要求、すなわちスピード、正確性、開発コストに直面する。
スピード制約は、ツールのユーザビリティを保証するために不可欠であり、エンドユーザーがオンラインソースコードにアクセスし、システムのオーバーヘッドを最小限にする応答性を示す。
同時に、コードの理解性を高めるために、正確なハイライトを達成することが重要です。
それでも、正確な結果を得るためには、文法的正確性が異なる場合でも、検討中のコードで文法解析を行う能力が必要である。
さらに、多数のプログラミング言語のバージョンを考えると、そのようなリゾルバの開発コストに対処することが不可欠である。
この分野における現在の最先端のアプローチは、プログラミング言語のオリジナルのlexerとparserを活用して、oracleを強調する構文を作成し、その後、ベースリカレントニューラルネットワークモデルのトレーニングに使用される。
このような解の一般化の課題が続く中、本論文では、原著を3つの主要なプログラミング言語に拡張し、その結果を総合的にレビューすることで、この問題に対処する。
さらに、新しい畳み込みベースニューラルネットワークモデルの導入により、評価性能とトレーニングコストの当初の制限が緩和される。
本研究では、GPU上でのモデル実行の性能向上について検討し、新しいCNNの実装は精度を維持しつつ、従来の手法よりもはるかに高速であることを示した。
関連論文リスト
- Decoding at the Speed of Thought: Harnessing Parallel Decoding of Lexical Units for LLMs [57.27982780697922]
大規模言語モデルは、自然言語の理解と生成において例外的な能力を示した。
しかし、それらの生成速度は、その復号過程の本質的にシーケンシャルな性質によって制限される。
本稿では,データ駆動方式で実装された新しいデコーディング手法であるLexical Unit Decodingを紹介する。
論文 参考訳(メタデータ) (2024-05-24T04:35:13Z) - IPAD: Iterative, Parallel, and Diffusion-based Network for Scene Text Recognition [5.525052547053668]
多様な応用により、シーンテキスト認識がますます注目を集めている。
最先端のほとんどのメソッドは、アテンション機構を備えたエンコーダ・デコーダフレームワークを採用しており、左から右へ自動回帰的にテキストを生成する。
本稿では,並列かつ反復的なデコーダを用いて,簡単なデコード戦略を採用する方法を提案する。
論文 参考訳(メタデータ) (2023-12-19T08:03:19Z) - Expedited Training of Visual Conditioned Language Generation via
Redundancy Reduction [61.16125290912494]
$textEVL_textGen$は、視覚条件付き言語生成モデルの事前トレーニング用に設計されたフレームワークである。
提案手法は,視覚言語モデルの学習を5倍に加速させるが,全体的な性能に顕著な影響を与えないことを示す。
論文 参考訳(メタデータ) (2023-10-05T03:40:06Z) - A Transformer-based Approach for Arabic Offline Handwritten Text
Recognition [0.0]
オフラインのアラビア文字を認識できるアーキテクチャを2つ導入する。
私たちのアプローチは言語依存をモデル化することができ、注意機構のみに依存するので、より並列化可能で、より複雑ではありません。
アラビアKHATTデータセットの評価は,提案手法が現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-27T17:51:52Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - On Robustness of Prompt-based Semantic Parsing with Large Pre-trained
Language Model: An Empirical Study on Codex [48.588772371355816]
本稿では,大規模なプロンプトベース言語モデルであるコーデックスの対角的ロバスト性に関する最初の実証的研究について述べる。
この結果から, 最先端の言語モデル(SOTA)は, 慎重に構築された敵の例に対して脆弱であることが示された。
論文 参考訳(メタデータ) (2023-01-30T13:21:00Z) - A Survey on Pretrained Language Models for Neural Code Intelligence [4.020523898765404]
Neural Code Intelligence(NCI)の分野は、ソースコードの分析タスクに取り組むための有望なソリューションとして登場した。
NCIは、プログラミングの効率を改善し、ソフトウェア業界におけるヒューマンエラーを最小限にすることを目的としている。
事前訓練された言語モデルはNCI研究において支配的な力となり、常に最先端の成果をもたらしている。
論文 参考訳(メタデータ) (2022-12-20T08:34:56Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - Enhanced Modality Transition for Image Captioning [51.72997126838352]
MTM(Modality Transition Module)を構築し、言語モデルに転送する前に視覚的機能をセマンティック表現に転送します。
トレーニング段階では、モダリティ遷移ネットワークは提案されたモダリティ損失によって最適化される。
提案手法の有効性を示すMS-COCOデータセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-02-23T07:20:12Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Sequence Model Design for Code Completion in the Modern IDE [3.4824234779710452]
本稿では,すべての有効なキーワードとスコープ内識別子を列挙する静的解析能力と,それらの上に確率分布を配置する言語モデルの能力を組み合わせた,トップk次トークンの予測手法を提案する。
我々のモデルは,文字レベルの入力表現とトークン出力を混合し,語彙外トークン(OOV)を有意に表現し,予測遅延を最小化する。
論文 参考訳(メタデータ) (2020-04-10T22:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。