論文の概要: TF-Coder: Program Synthesis for Tensor Manipulations
- arxiv url: http://arxiv.org/abs/2003.09040v4
- Date: Thu, 7 Apr 2022 22:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 03:56:49.718238
- Title: TF-Coder: Program Synthesis for Tensor Manipulations
- Title(参考訳): TF-Coder:テンソル操作のためのプログラム合成
- Authors: Kensen Shi, David Bieber, Rishabh Singh
- Abstract要約: 本稿では,プルーニングを例に,TF-Coderというプログラミングツールを提案する。
入力と出力のテンソルの特徴とタスクの自然言語記述から操作を予測するためにモデルを訓練する。
TF-Coderは、実世界のタスクのうち63を5分以内に解決する。
- 参考スコア(独自算出の注目度): 29.46838583290554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success and popularity of deep learning is on the rise, partially due to
powerful deep learning frameworks such as TensorFlow and PyTorch that make it
easier to develop deep learning models. However, these libraries also come with
steep learning curves, since programming in these frameworks is quite different
from traditional imperative programming with explicit loops and conditionals.
In this work, we present a tool called TF-Coder for programming by example in
TensorFlow. TF-Coder uses a bottom-up weighted enumerative search, with
value-based pruning of equivalent expressions and flexible type- and
value-based filtering to ensure that expressions adhere to various requirements
imposed by the TensorFlow library. We train models to predict TensorFlow
operations from features of the input and output tensors and natural language
descriptions of tasks, to prioritize relevant operations during search.
TF-Coder solves 63 of 70 real-world tasks within 5 minutes, sometimes finding
simpler solutions in less time compared to experienced human programmers.
- Abstract(参考訳): ディープラーニングの成功と人気は、部分的にはtensorflowやpytorchといった強力なディープラーニングフレームワークのおかげで、ディープラーニングモデルの開発が容易になっている。
しかし、これらのライブラリは、明示的なループと条件付き命令型プログラミングとは全く異なるので、学習曲線が急激である。
本研究では,TensorFlow の例として TF-Coder というツールを提案する。
TF-Coderはボトムアップの重み付き列挙型検索を使用し、等価表現の値ベースのプルーニングとフレキシブルな型と値ベースのフィルタリングにより、表現がTensorFlowライブラリによって課されるさまざまな要件に準拠することを保証する。
我々は、入力および出力テンソルとタスクの自然言語記述の特徴からtensorflow操作を予測するモデルを訓練し、検索中に関連する操作を優先する。
TF-Coderは、実世界のタスクのうち63を5分以内に解決する。
関連論文リスト
- SparseCoder: Identifier-Aware Sparse Transformer for File-Level Code
Summarization [51.67317895094664]
本稿では,大規模なソースコードプロジェクトの理解と維持を支援するファイルレベルのコード要約について検討する。
長いコードシーケンスを効果的に処理するための識別子対応スパース変換器であるSparseCoderを提案する。
論文 参考訳(メタデータ) (2024-01-26T09:23:27Z) - CodeGen2: Lessons for Training LLMs on Programming and Natural Languages [116.74407069443895]
我々はエンコーダとデコーダベースのモデルを単一のプレフィックスLMに統一する。
学習方法は,「フリーランチ」仮説の主張を考察する。
データ配信においては,混合分布と多言語学習がモデル性能に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2023-05-03T17:55:25Z) - Trieste: Efficiently Exploring The Depths of Black-box Functions with
TensorFlow [50.691232400959656]
Triesteは、ベイジアン最適化とアクティブラーニングのためのオープンソースのPythonパッケージである。
我々のライブラリは、シーケンシャルな意思決定ループ内で人気のあるモデルのプラグアンドプレイを可能にする。
論文 参考訳(メタデータ) (2023-02-16T17:21:49Z) - ExAIS: Executable AI Semantics [4.092001692194709]
ニューラルネットワークは、プログラマの心の中で(しばしば非公式に)論理的推論を通じて、より複雑なプログラムを構築する代わりに、汎用的なニューラルネットワークモデルをビッグデータで最適化することで、新しいプログラミングパラダイムとみなすことができる。
この新しいパラダイムでは、PyTorchのようなAIフレームワークが重要な役割を果たす。
プログラミング言語(Cなど)の適切な意味論が欠如していること、すなわちコンパイラの正当性仕様が、多くの問題のあるプログラムの動作やセキュリティ問題に寄与していることが知られている。
論文 参考訳(メタデータ) (2022-02-20T17:33:34Z) - OneFlow: Redesign the Distributed Deep Learning Framework from Scratch [17.798586916628174]
OneFlowは、SBP(スプリット、ブロードキャスト、部分値)の抽象化とアクターモデルに基づく、新しい分散トレーニングフレームワークである。
SBPは既存のフレームワークよりも、データ並列処理やモデル並列処理のプログラミングがずっと簡単になります。
OneFlowは、最先端のフレームワーク上に構築された多くの有名なカスタマイズライブラリよりも優れています。
論文 参考訳(メタデータ) (2021-10-28T11:32:14Z) - TensorFlow ManOpt: a library for optimization on Riemannian manifolds [0.3655021726150367]
ニューラルネットワークの採用と非ユークリッドドメインでのディープラーニングは、スケーラブルで効率的な学習フレームワークの欠如によって、最近まで妨げられていた。
我々は、機械学習モデルの観点からRiemannianを最適化するPythonライブラリであるManOptを提案し、このギャップを埋めようとしている。
このライブラリはエコシステムとのシームレスな統合を目的として設計されており、研究だけでなく、プロダクション機械学習パイプラインの合理化も目標としている。
論文 参考訳(メタデータ) (2021-05-27T10:42:09Z) - TensorGP -- Genetic Programming Engine in TensorFlow [1.1470070927586016]
遺伝的プログラミングにおける領域評価にデータベクトル化とフィットネスキャッシングを適用する利点について検討する。
当社のパフォーマンスベンチマークは、専用ハードウェア上で動作する並列アプローチで最大2桁のパフォーマンス向上を達成できることを示しています。
論文 参考訳(メタデータ) (2021-03-12T20:19:37Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - GraphCodeBERT: Pre-training Code Representations with Data Flow [97.00641522327699]
本稿では,コード固有の構造を考慮したプログラミング言語の事前学習モデルであるGraphCodeBERTを提案する。
これは変数間の"where-the-value-comes-from"の関係をエンコードするコードのセマンティックレベルの構造です。
コード検索,クローン検出,コード翻訳,コード改良の4つのタスクにおいて,本モデルを評価する。
論文 参考訳(メタデータ) (2020-09-17T15:25:56Z) - An Advance on Variable Elimination with Applications to Tensor-Based
Computation [11.358487655918676]
本稿では,確率的推論を含む多くのアルゴリズムの基盤となる可変除去の古典的アルゴリズムについて述べる。
結果は機能的依存関係の活用に関連しており、非常に大きなツリー幅を持つモデルで推論と学習を効率的に行うことができる。
論文 参考訳(メタデータ) (2020-02-21T14:17:44Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。