論文の概要: MotePy: A domain specific language for low-overhead machine learning and
data processing
- arxiv url: http://arxiv.org/abs/2011.05194v2
- Date: Thu, 12 Nov 2020 04:31:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:25:42.556573
- Title: MotePy: A domain specific language for low-overhead machine learning and
data processing
- Title(参考訳): MotePy: 低オーバーヘッド機械学習とデータ処理のためのドメイン固有言語
- Authors: Jayaraj Poroor
- Abstract要約: MotePyという名前のドメイン固有言語()が提示される。
DSLは、時間制約やメモリ制約のあるシステムにおけるML/データ処理のオーバーヘッドを低くした高レベルの構文を提供します。
DSL-to-Cコンパイラは、オブジェクトの寿命を追跡し、静的メモリを再利用する新しい静的メモリアロケータを備えています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: A domain specific language (DSL), named MotePy is presented. The DSL offers a
high level syntax with low overheads for ML/data processing in time constrained
or memory constrained systems. The DSL-to-C compiler has a novel static memory
allocator that tracks object lifetimes and reuses the static memory, which we
call the compiler-managed heap.
- Abstract(参考訳): MotePyという名前のドメイン固有言語(DSL)が提示されます。
DSLは、時間制約やメモリ制約のあるシステムにおけるML/データ処理のオーバーヘッドを低くした高レベルの構文を提供します。
DSL-to-Cコンパイラは、オブジェクトの寿命を追跡し、静的メモリを再利用する新しい静的メモリアロケータを備えています。
関連論文リスト
- From a Natural to a Formal Language with DSL Assistant [0.0]
DSL の開発を支援するために生成言語モデルを統合するツールである DSL Assistant の設計と試作を行う。
DSL Assistantは、OpenAIのアシスタントAPIとGPT-4oを使用して、DSL文法とサンプルインスタンスを生成する。
我々の実験によると、DSL AssistantはユーザーがDSLを作成し、修正するのに役立つ。
論文 参考訳(メタデータ) (2024-08-19T07:53:56Z) - Online Temporal Action Localization with Memory-Augmented Transformer [61.39427407758131]
オンライン時間的行動ローカライゼーションのためのメモリ拡張変換器(MATR)を提案する。
MATRは過去のセグメントの特徴を選択的に保存し、推論に長期的コンテキストを活用する。
また,現在進行中の動作の終了時刻を予測するために入力セグメントを観測し,メモリキューにアクセスして動作開始時刻を推定する新たな動作ローカライズ手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T04:55:33Z) - HMT: Hierarchical Memory Transformer for Efficient Long Context Language Processing [33.720656946186885]
Hierarchical Memory Transformer (HMT) はモデル長文処理を容易にする新しいフレームワークである。
HMTは、既存のモデルの長文処理能力を一貫して改善する。
論文 参考訳(メタデータ) (2024-05-09T19:32:49Z) - MemLLM: Finetuning LLMs to Use An Explicit Read-Write Memory [49.96019697955383]
本稿では,構造化および明示的な読み書きメモリモジュールを統合することで,大規模言語モデル(LLM)の拡張手法であるMemLLMを紹介する。
実験の結果, 言語モデリング, 特に知識集約型タスクにおいて, MemLLMはLLMの性能と解釈可能性を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T18:13:16Z) - Augmenting Language Models with Long-Term Memory [142.04940250657637]
既存の大規模言語モデル(LLM)では、入力長制限のため、固定サイズの入力しかできない。
本稿では,Long-Term Memory (LongMem) を付加した言語モデルを提案する。
論文 参考訳(メタデータ) (2023-06-12T15:13:39Z) - Training Language Models with Memory Augmentation [28.4608705738799]
本稿では,メモリ拡張による言語モデル学習のための新しいトレーニング手法を提案する。
当社のアプローチでは、バッチ内のサンプルをアクセス可能なメモリとして直接取り込むトレーニング目標を用いています。
従来のメモリ拡張アプローチよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2022-05-25T11:37:29Z) - LaMemo: Language Modeling with Look-Ahead Memory [50.6248714811912]
右側トークンへの漸進的参加により再帰記憶を向上させるLook-Ahead Memory(LaMemo)を提案する。
LaMemoは、メモリ長に比例した追加のオーバーヘッドで、双方向の注意とセグメントの再発を受け入れる。
広く使われている言語モデリングベンチマークの実験は、異なる種類のメモリを備えたベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2022-04-15T06:11:25Z) - MeMOT: Multi-Object Tracking with Memory [97.48960039220823]
私たちのモデルはMeMOTと呼ばれ、トランスフォーマーベースの3つの主要モジュールで構成されています。
MeMOTは広く採用されているMOTデータセット上で非常に競争力のあるパフォーマンスを観測する。
論文 参考訳(メタデータ) (2022-03-31T02:33:20Z) - Memory Planning for Deep Neural Networks [0.0]
推論中のDNNのメモリ割り当てパターンについて検討する。
このようなtexttmutex競合による遅延は、ユーザ向けサービスにおいて望ましくないボトルネックを生み出します。
PyTorchディープラーニングフレームワークにおける textttMemoMalloc の実装について述べる。
論文 参考訳(メタデータ) (2022-02-23T05:28:18Z) - Continual Learning in Multilingual NMT via Language-Specific Embeddings [92.91823064720232]
共有語彙を小さな言語固有の語彙に置き換え、新しい言語の並列データに新しい埋め込みを微調整する。
元のモデルのパラメータは変更されていないため、初期言語の性能は劣化しない。
論文 参考訳(メタデータ) (2021-10-20T10:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。