論文の概要: Ad-hoc polymorphic delimited continuations
- arxiv url: http://arxiv.org/abs/2307.16073v1
- Date: Sat, 29 Jul 2023 20:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 15:48:51.378572
- Title: Ad-hoc polymorphic delimited continuations
- Title(参考訳): Ad-hoc polymorphic delimited continuation
- Authors: Bo Yang
- Abstract要約: 他のプログラミング言語の第一級言語機能は、我々のフレームワークの助けを借りてライブラリとして実装できる。
私たちのフレームワークの中核となる概念は型クラスDslであり、これはアドホックな多型継続とより一般的なモナドのバージョンの両方と見なすことができる。
- 参考スコア(独自算出の注目度): 4.12935843184402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We designed and implemented a framework for creating extensible
domain-specific languages that consists of library-defined keywords.
First-class language features in other programming languages can be implemented
as libraries with the help of our framework. The core concept in our framework
is the type class Dsl, which can be considered as both the ad-hoc polymorphic
version of a delimited continuation and a more generic version of Monad. Thus
it can be also used as a statically typed extensible effect system that is more
efficient and more concise than existing Monad-based effect systems.
- Abstract(参考訳): ライブラリ定義キーワードからなる拡張可能なドメイン固有言語を作成するためのフレームワークを設計,実装した。
他のプログラミング言語のファーストクラス言語機能は、我々のフレームワークの助けを借りてライブラリとして実装できます。
フレームワークの中核となる概念は型クラスDslであり、これは非制限連続のアドホックな多型バージョンと、より一般的なモナドバージョンの両方とみなすことができる。
したがって、既存のモナド効果系よりも効率的で簡潔な静的型付き拡張可能な効果系としても使用できる。
関連論文リスト
- ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - DocCGen: Document-based Controlled Code Generation [33.19206322891497]
DocCGenは、構造化コード言語のためのNL-to-Code生成タスクを2段階のプロセスに分解することで、豊富な知識を活用できるフレームワークである。
実験の結果,DocCGenは6つの評価指標すべてで,言語モデルのサイズを常に改善していることがわかった。
論文 参考訳(メタデータ) (2024-06-17T08:34:57Z) - A Compositional Typed Semantics for Universal Dependencies [26.65442947858347]
本稿では,語彙項目に対する意味型と論理形式を構成的,原則的,言語に依存しないシステムであるUD Type Calculusを紹介する。
本稿では,UD型計算の本質的特徴について説明する。
既存の文のコーパスとその論理形式について,UD-TCがベースラインに匹敵する意味を生成できることを示す。
論文 参考訳(メタデータ) (2024-03-02T11:58:24Z) - LISA++: An Improved Baseline for Reasoning Segmentation with Large
Language Model [54.850048630298495]
既存のLISAモデルの更新であるLISA++を導入し、基本アーキテクチャをそのまま維持しながらコア機能の改善に重点を置いている。
インスタンスセグメンテーション機能が追加され、既存のマルチリージョンセグメンテーションとともに、より詳細なシーン分析が提供される。
これらの改善は、構造的変化やデータソースを追加することなく、セグメンテーションと会話スキルを強化することを目的とした、ジェネリックセグメンテーションデータセットの既存のサンプルをキュレートすることで達成される。
論文 参考訳(メタデータ) (2023-12-28T18:58:33Z) - OFA: A Framework of Initializing Unseen Subword Embeddings for Efficient Large-scale Multilingual Continued Pretraining [49.213120730582354]
言語モデルをスクラッチから事前学習する代わりに、既存の事前学習言語モデル(PLM)を語彙拡張と継続事前学習を通じて新しい言語に適応させることがより効率的な方法である。
我々は、新しいフレームワークを提案する: $textbfO$ne $textbfF$or $textbfA$ll。
論文 参考訳(メタデータ) (2023-11-15T10:40:45Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Language-Agnostic Representation Learning of Source Code from Structure
and Context [43.99281651828355]
ソースコードのコンテキストと構造を共同で学習する新しいモデルを提案する。
複数のプログラミング言語から非並列データを共同トレーニングすることで,個々の言語での結果が向上することを示す。
論文 参考訳(メタデータ) (2021-03-21T06:46:06Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - A framework for a modular multi-concept lexicographic closure semantics [0.0]
本稿では,レキシコグラフィー・クロージャ・セマンティクスのモジュール型マルチコンセプト拡張を定義する。
その考え方は、概念のデファシブルな性質を主題によって異なる加群に分散し、語彙的閉包意味論に基づいて各加群に対する選好の概念を定義することである。
知識基盤の優先的な意味論は、単一のモジュールの好みの組み合わせとして定義することができる。
論文 参考訳(メタデータ) (2020-09-02T11:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。