論文の概要: ADELT: Transpilation Between Deep Learning Frameworks
- arxiv url: http://arxiv.org/abs/2303.03593v1
- Date: Tue, 7 Mar 2023 01:57:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:44:10.303008
- Title: ADELT: Transpilation Between Deep Learning Frameworks
- Title(参考訳): ADELT: ディープラーニングフレームワーク間のトランスパイレーション
- Authors: Linyuan Gong, Jiayi Wang, Alvin Cheung
- Abstract要約: 本稿では,ディープラーニングフレームワーク間のソース・ソース・トランスパイラに対して,ADELT(Adversarial Deep Learning Transpiler)を提案する。
コードのためのBERTによって抽出されたコンテキスト埋め込みに基づいて、ドメイン・アドバイザリ・セットアップに整列したAPI埋め込みを訓練し、キーワード翻訳用の辞書を生成する。
本研究では,PyTorch-Keras と PyTorch-MXNet を含む複数のトランスパイラに対して,それぞれ15.9pts と12.0pts の精度で,最先端トランスパイラの性能を向上する。
- 参考スコア(独自算出の注目度): 21.516657643120375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Adversarial DEep Learning Transpiler (ADELT) for source-to-source
transpilation between deep learning frameworks. Unlike prior approaches, we
decouple the transpilation of code skeletons and the mapping of API keywords
(an API function name or a parameter name). ADELT transpile code skeletons
using few-shot prompting on big language models. Based on contextual embeddings
extracted by a BERT for code, we train aligned API embeddings in a
domain-adversarial setup, upon which we generate a dictionary for keyword
translation. The model is trained on our unlabeled DL corpus from web crawl
data, without using any hand-crafted rules and parallel data. Our method
outperforms state-of-the-art transpilers on multiple transpilation pairs
including PyTorch-Keras and PyTorch-MXNet by 15.9pts and 12.0pts in exact match
scores respectively.
- Abstract(参考訳): 本稿では,ディープラーニングフレームワーク間のソース間トランスパイルのために,adlt(adversarial deep learning transpiler)を提案する。
従来のアプローチとは異なり、コードスケルトンとAPIキーワード(API関数名またはパラメータ名)のマッピングを分離します。
ADELTトランスパイルコードスケルトンは、大きな言語モデルでプロンプトを少数使用している。
コードのためのBERTによって抽出されたコンテキスト埋め込みに基づいて、ドメイン・アドバイザリ・セットアップに整列したAPI埋め込みを訓練し、キーワード翻訳用の辞書を生成する。
このモデルは、手作りのルールや並列データを用いることなく、WebクローデータからラベルなしのDLコーパスでトレーニングされます。
PyTorch-Keras や PyTorch-MXNet など複数のトランスパイラに対して,それぞれ15.9pts と12.0pts の精度で,最先端トランスパイラの性能を向上する。
関連論文リスト
- Be My Donor. Transfer the NLP Datasets Between the Languages Using LLM [0.0]
私たちはDEFTコーパスを翻訳する英語とロシア語のペアを使用します。
コアLLMとしてChatGPT3.5-turboとLlama-3.1-8bを用いたアノテーション転送のためのパイプラインを提供する。
最後に、翻訳データセット上でBERTベースのモデルをトレーニングし、ベースラインを確立する。
論文 参考訳(メタデータ) (2024-10-17T22:46:53Z) - Batching BPE Tokenization Merges [55.2480439325792]
BatchBPEはByte PairアルゴリズムのPython実装である。
ベーシックラップトップ上で高品質なトークンをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-08-05T09:37:21Z) - LexMatcher: Dictionary-centric Data Collection for LLM-based Machine Translation [67.24113079928668]
本稿では、バイリンガル辞書に見られる感覚のカバレッジによって駆動されるデータキュレーション手法であるLexMatcherを提案する。
我々の手法は、WMT2022テストセットの確立されたベースラインよりも優れています。
論文 参考訳(メタデータ) (2024-06-03T15:30:36Z) - TransMI: A Framework to Create Strong Baselines from Multilingual Pretrained Language Models for Transliterated Data [50.40191599304911]
そこで我々は,Transliterate Transliteration-Merge (TransMI)を提案する。
結果は、モデルやタスクによって異なるが、3%から34%の改善が一貫したことを示している。
論文 参考訳(メタデータ) (2024-05-16T09:08:09Z) - Binding Language Models in Symbolic Languages [146.3027328556881]
Binderはトレーニング不要のニューラルシンボリックフレームワークで、タスク入力をプログラムにマッピングする。
解析の段階では、Codexは元のプログラミング言語では答えられないタスク入力の一部を特定することができる。
実行段階では、CodexはAPI呼び出しで適切なプロンプトを与えられた万能機能を実行することができる。
論文 参考訳(メタデータ) (2022-10-06T12:55:17Z) - On the Effectiveness of Pretrained Models for API Learning [8.788509467038743]
開発者は、Excelファイルのパース、行ごとのテキストファイルの読み書きなど、特定の機能を実装するためにAPIを使うことが多い。
開発者は、より高速でクリーンな方法でアプリケーションを構築するために、自然言語クエリに基づいた自動API使用シーケンス生成の恩恵を受けることができる。
既存のアプローチでは、クエリが与えられたAPIシーケンスの検索や、RNNベースのエンコーダデコーダを使用してAPIシーケンスを生成するために、情報検索モデルを使用している。
論文 参考訳(メタデータ) (2022-04-05T20:33:24Z) - Code Search based on Context-aware Code Translation [9.346066889885684]
既存のテクニックは、ディープラーニングモデルを利用して、コードスニペットとクエリの埋め込み表現を構築する。
本稿では,コードスニペットを自然言語記述に変換する,文脈認識型コード翻訳手法を提案する。
我々は,1000クエリのCodeSearchNetコーパス上で,TranCSと呼ばれる手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T12:45:47Z) - Consecutive Decoding for Speech-to-text Translation [51.155661276936044]
COnSecutive Transcription and Translation (COSTT)は、音声からテキストへの翻訳に不可欠な手法である。
鍵となるアイデアは、ソースの書き起こしとターゲットの翻訳テキストを1つのデコーダで生成することである。
本手法は3つの主流データセットで検証する。
論文 参考訳(メタデータ) (2020-09-21T10:10:45Z) - Unsupervised Translation of Programming Languages [19.56070393390029]
ソース・トゥ・ソース(source-to-source)またはトランスコンパイラ(transcompiler)は、ソースコードをハイレベルなプログラミング言語から別のプログラミング言語に変換するシステムである。
私たちは、オープンソースのGitHubプロジェクトからソースコードでモデルをトレーニングし、C++、Java、Python間の関数を高い精度で翻訳できることを示しています。
論文 参考訳(メタデータ) (2020-06-05T15:28:01Z) - When Dictionary Learning Meets Deep Learning: Deep Dictionary Learning
and Coding Network for Image Recognition with Limited Data [74.75557280245643]
本稿では,限られたデータを用いた画像認識タスクのための新しいDeep Dictionary Learning and Coding Network(DDLCN)を提案する。
DDLCNをいくつかの主要な辞書学習手法と深層学習モデルと比較した。
5つの一般的なデータセットに対する実験結果から,DDLCNはトレーニングデータに制限がある場合の最先端手法と比較して,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-05-21T23:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。