論文の概要: Ad-hoc polymorphic delimited continuations
- arxiv url: http://arxiv.org/abs/2307.16073v1
- Date: Sat, 29 Jul 2023 20:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 15:48:51.378572
- Title: Ad-hoc polymorphic delimited continuations
- Title(参考訳): Ad-hoc polymorphic delimited continuation
- Authors: Bo Yang
- Abstract要約: 他のプログラミング言語の第一級言語機能は、我々のフレームワークの助けを借りてライブラリとして実装できる。
私たちのフレームワークの中核となる概念は型クラスDslであり、これはアドホックな多型継続とより一般的なモナドのバージョンの両方と見なすことができる。
- 参考スコア(独自算出の注目度): 4.12935843184402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We designed and implemented a framework for creating extensible
domain-specific languages that consists of library-defined keywords.
First-class language features in other programming languages can be implemented
as libraries with the help of our framework. The core concept in our framework
is the type class Dsl, which can be considered as both the ad-hoc polymorphic
version of a delimited continuation and a more generic version of Monad. Thus
it can be also used as a statically typed extensible effect system that is more
efficient and more concise than existing Monad-based effect systems.
- Abstract(参考訳): ライブラリ定義キーワードからなる拡張可能なドメイン固有言語を作成するためのフレームワークを設計,実装した。
他のプログラミング言語のファーストクラス言語機能は、我々のフレームワークの助けを借りてライブラリとして実装できます。
フレームワークの中核となる概念は型クラスDslであり、これは非制限連続のアドホックな多型バージョンと、より一般的なモナドバージョンの両方とみなすことができる。
したがって、既存のモナド効果系よりも効率的で簡潔な静的型付き拡張可能な効果系としても使用できる。
関連論文リスト
- A Compositional Typed Semantics for Universal Dependencies [26.65442947858347]
本稿では,語彙項目に対する意味型と論理形式を構成的,原則的,言語に依存しないシステムであるUD Type Calculusを紹介する。
本稿では,UD型計算の本質的特徴について説明する。
既存の文のコーパスとその論理形式について,UD-TCがベースラインに匹敵する意味を生成できることを示す。
論文 参考訳(メタデータ) (2024-03-02T11:58:24Z) - LISA++: An Improved Baseline for Reasoning Segmentation with Large
Language Model [54.850048630298495]
既存のLISAモデルの更新であるLISA++を導入し、基本アーキテクチャをそのまま維持しながらコア機能の改善に重点を置いている。
インスタンスセグメンテーション機能が追加され、既存のマルチリージョンセグメンテーションとともに、より詳細なシーン分析が提供される。
これらの改善は、構造的変化やデータソースを追加することなく、セグメンテーションと会話スキルを強化することを目的とした、ジェネリックセグメンテーションデータセットの既存のサンプルをキュレートすることで達成される。
論文 参考訳(メタデータ) (2023-12-28T18:58:33Z) - OFA: A Framework of Initializing Unseen Subword Embeddings for Efficient Large-scale Multilingual Continued Pretraining [49.213120730582354]
言語モデルをスクラッチから事前学習する代わりに、既存の事前学習言語モデル(PLM)を語彙拡張と継続事前学習を通じて新しい言語に適応させることがより効率的な方法である。
我々は、新しいフレームワークを提案する: $textbfO$ne $textbfF$or $textbfA$ll。
論文 参考訳(メタデータ) (2023-11-15T10:40:45Z) - Efficient Guided Generation for Large Language Models [0.21485350418225244]
本稿では, 有限状態マシンの状態間の遷移の観点から, ニューラルテキスト生成の問題を構成的に再構成する方法を示す。
このフレームワークは、正規表現と文脈自由文法でテキスト生成を導くための効率的なアプローチをもたらす。
論文 参考訳(メタデータ) (2023-07-19T01:14:49Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Towards A Unified View of Sparse Feed-Forward Network in Pretraining
Large Language Model [58.9100867327305]
大規模かつスパースなフィードフォワード層(S-FFN)は、大きな言語モデルをテキスト処理するためにTransformersモデルのサイズをスケールアップするのに有効であることが証明されている。
我々は,S-FFNの2つの主要な設計選択,すなわち,メモリブロックのサイズとメモリブロックの選択方法について分析した。
言語モデルの事前学習において,より単純な選択方法である textbftextttAvg-K が得られた。
論文 参考訳(メタデータ) (2023-05-23T12:28:37Z) - Language-Agnostic Representation Learning of Source Code from Structure
and Context [43.99281651828355]
ソースコードのコンテキストと構造を共同で学習する新しいモデルを提案する。
複数のプログラミング言語から非並列データを共同トレーニングすることで,個々の言語での結果が向上することを示す。
論文 参考訳(メタデータ) (2021-03-21T06:46:06Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Applying Occam's Razor to Transformer-Based Dependency Parsing: What
Works, What Doesn't, and What is Really Necessary [9.347252855045125]
我々は,事前学習した埋め込みの選択と,グラフベースの依存性スキームでLSTM層を使用するかどうかについて検討する。
我々は,12言語中10言語に対して,新しい最先端の成果(LAS)を実現するため,シンプルだが広く適用可能なアーキテクチャと構成を提案する。
論文 参考訳(メタデータ) (2020-10-23T22:58:26Z) - A framework for a modular multi-concept lexicographic closure semantics [0.0]
本稿では,レキシコグラフィー・クロージャ・セマンティクスのモジュール型マルチコンセプト拡張を定義する。
その考え方は、概念のデファシブルな性質を主題によって異なる加群に分散し、語彙的閉包意味論に基づいて各加群に対する選好の概念を定義することである。
知識基盤の優先的な意味論は、単一のモジュールの好みの組み合わせとして定義することができる。
論文 参考訳(メタデータ) (2020-09-02T11:41:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。