論文の概要: Code Less to Code More: Streamlining Language Server Protocol and Type System Development for Language Families
- arxiv url: http://arxiv.org/abs/2509.15150v1
- Date: Thu, 18 Sep 2025 16:57:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.34858
- Title: Code Less to Code More: Streamlining Language Server Protocol and Type System Development for Language Families
- Title(参考訳): Code Less to Code:Language Server Protocolの合理化とLanguage Familiesの型システム開発
- Authors: Federico Bruzzone, Walter Cazzola, Luca Favalli,
- Abstract要約: 既存の言語ワークベンチは、モジュール性、再利用性、言語サーバー生成のための型システムの利用に苦労している。
モジュール、構成可能、再利用可能な型システム実装のためのドメイン固有言語のファミリーであるTypelangを提案する。
我々はNeverlangにTypelangを実装し、各アーティファクト用の言語サーバと3つのエディタ用のLSPプラグインを生成します。
- 参考スコア(独自算出の注目度): 7.697692044735504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing editing support for $L$ languages in $E$ editors is complex and time-consuming. Some languages do not provide dedicated editors, while others offer a single native editor. The $\textit{language server protocol}$ (LSP) reduces the language-editor combinations $L \times E$ to $L + E$, where a single language server communicates with editors via LSP plugins. However, overlapping implementations of linguistic components remain an issue. Existing language workbenches struggle with modularity, reusability, and leveraging type systems for language server generation. In this work, we propose: (i) Typelang, a family of domain-specific languages for modular, composable, and reusable type system implementation, (ii) a modular language server generation process, producing servers for languages built in a modular workbench, (iii) the variant-oriented programming paradigm and a cross-artifact coordination layer to manage interdependent software variants, and (iv) an LSP plugin generator, reducing $E$ to $1$ by automating plugin creation for multiple editors. To simplify editing support for language families, each language artifact integrates its own Typelang variant, used to generate language servers. This reduces combinations to $T \times 1$, where $T = L$ represents the number of type systems. Further reuse of language artifacts across languages lowers this to $N \times 1$, where $N << T$, representing unique type systems. We implement Typelang in Neverlang, generating language servers for each artifact and LSP plugins for three editors. Empirical evaluation shows a 93.48% reduction in characters needed for type system implementation and 100% automation of LSP plugin generation, significantly lowering effort for editing support in language families, especially when artifacts are reused.
- Abstract(参考訳): $L$言語に対する編集サポートを$E$エディタで開発するのは複雑で時間がかかる。
一部の言語は専用のエディタを提供していないが、他の言語は単一のネイティブエディタを提供している。
$\textit{ languages server protocol}$ (LSP)は、言語とエディタの組み合わせを$L \times E$から$L + E$に減らします。
しかし、言語コンポーネントの実装の重複は依然として問題である。
既存の言語ワークベンチは、モジュール性、再利用性、言語サーバー生成のための型システムの利用に苦労している。
本研究では,次のことを提案する。
(i) Typelangは、モジュール、構成可能、再利用可能な型システム実装のためのドメイン固有の言語のファミリーです。
(ii) モジュール型ワークベンチで構築された言語用のサーバを生成するモジュール型言語サーバ生成プロセス。
三 異種指向プログラミングパラダイム及び異種依存ソフトウェアの異種管理のための異種連携レイヤ
(iv) LSPプラグインジェネレータで、複数のエディタ用のプラグイン作成を自動化することで、$E$を$$$に下げる。
言語ファミリの編集サポートを簡単にするために、各言語アーティファクトは、言語サーバーを生成するために使用される独自のTypelang亜種を統合する。
これは組み合わせを$T \times 1$に減らし、$T = L$は型システムの数を表す。
言語間の言語アーティファクトのさらなる再利用により、これを$N \times 1$に下げる。
我々はNeverlangにTypelangを実装し、各アーティファクト用の言語サーバと3つのエディタ用のLSPプラグインを生成します。
実証的な評価では、型システムの実装に必要な文字が93.48%削減され、LSPプラグイン生成が100%自動化された。
関連論文リスト
- Multilingual Grammatical Error Annotation: Combining Language-Agnostic Framework with Language-Specific Flexibility [4.524074577209036]
我々は多言語文法的エラーアノテーションのための標準化されたモジュラーフレームワークを導入する。
我々のアプローチは言語に依存しない基盤と構造化言語固有の拡張を組み合わせることで、言語間の一貫性と柔軟性を可能にします。
この作業は、言語間のスケーラブルで解釈可能なGECアノテーションをサポートし、多言語設定におけるより一貫性のある評価を促進する。
論文 参考訳(メタデータ) (2025-06-09T13:01:19Z) - LangSAMP: Language-Script Aware Multilingual Pretraining [48.16511046793275]
我々はLangSAMP(Language-Script Aware Multilingual Pretraining)を提案する。
LangSAMPには言語とスクリプトの埋め込みが組み込まれており、表現学習が強化されている。
我々は500以上の言語をカバーする多言語コーパス上のXLM-Rの継続事前学習にLangSAMPを適用した。
論文 参考訳(メタデータ) (2024-09-26T18:29:10Z) - How do Large Language Models Handle Multilingualism? [81.15060972112563]
本研究では,大規模言語モデル(LLM)が多言語モデルをどのように扱うかを検討する。
LLMはまずクエリを理解し、タスク解決のために多言語入力を英語に変換する。
中間層では、英語を思考に用い、自己意識とフィードフォワード構造を持つ多言語知識を取り入れている。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - Revisiting Language Encoding in Learning Multilingual Representations [70.01772581545103]
言語埋め込みを置き換えるクロスリンガル言語投影(Cross-lingual Language Projection, XLP)と呼ばれる新しいアプローチを提案する。
XLPは単語埋め込みを言語固有の意味空間に投影し、投影された埋め込みはTransformerモデルに供給される。
実験により、xlpは広範囲の多言語ベンチマークデータセットのモデル性能を自由かつ著しく向上できることが示された。
論文 参考訳(メタデータ) (2021-02-16T18:47:10Z) - Phonological Features for 0-shot Multilingual Speech Synthesis [50.591267188664666]
単言語モデルにおいても,トレーニング中に見つからない言語に対して,コードスイッチングが可能であることを示す。
テスト時には、訓練で見たことのない音の近似を含む、新しい言語で、理解不能で、コードスイッチトされた音声を生成する。
論文 参考訳(メタデータ) (2020-08-06T18:25:18Z) - Training Multilingual Machine Translation by Alternately Freezing
Language-Specific Encoders-Decoders [20.063065730835874]
本稿では,新たな言語を追加する際に,既存のシステムを再学習することなく,新たな言語に漸進的に拡張可能な多言語機械翻訳システムを提案する。
エンコーダやデコーダモジュールを交互に凍結することで,すべての翻訳方向で$N$言語を同時にトレーニングする。
多言語機械翻訳による実験結果から,新しい言語の追加やゼロショット翻訳を行う場合,初期言語を少し遅れながら改良したモジュラーアーキテクチャのトレーニングに成功していることがわかった。
論文 参考訳(メタデータ) (2020-05-29T19:00:59Z) - Multilingual Machine Translation: Closing the Gap between Shared and
Language-specific Encoder-Decoders [20.063065730835874]
最先端の多言語機械翻訳はユニバーサルエンコーダデコーダに依存している。
本稿では,言語固有のエンコーダデコーダに基づく代替手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T15:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。