論文の概要: ShapeFlow: Dynamic Shape Interpreter for TensorFlow
- arxiv url: http://arxiv.org/abs/2011.13452v1
- Date: Thu, 26 Nov 2020 19:27:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:34:46.363843
- Title: ShapeFlow: Dynamic Shape Interpreter for TensorFlow
- Title(参考訳): shapeflow: tensorflow用の動的シェイプインタプリタ
- Authors: Sahil Verma and Zhendong Su
- Abstract要約: 本稿では,形状不整合誤差を高速にキャッチする動的抽象的インタプリタであるShapeFlowを提案する。
ShapeFlowは、プログラマが使用する計算グラフと同様、カスタム形状の計算グラフを構築する。
本研究では, 前回の実証実験で収集した52プログラムのShapeFlowを評価し, 形状不整合誤差をいかに高速かつ正確に把握できるかを示した。
- 参考スコア(独自算出の注目度): 10.59840927423059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ShapeFlow, a dynamic abstract interpreter for TensorFlow which
quickly catches tensor shape incompatibility errors, one of the most common
bugs in deep learning code. ShapeFlow shares the same APIs as TensorFlow but
only captures and emits tensor shapes, its abstract domain. ShapeFlow
constructs a custom shape computational graph, similar to the computational
graph used by TensorFlow. ShapeFlow requires no code annotation or code
modification by the programmer, and therefore is convenient to use. We evaluate
ShapeFlow on 52 programs collected by prior empirical studies to show how fast
and accurately it can catch shape incompatibility errors compared to
TensorFlow. We use two baselines: a worst-case training dataset size and a more
realistic dataset size. ShapeFlow detects shape incompatibility errors highly
accurately -- with no false positives and a single false negative -- and highly
efficiently -- with an average speed-up of 499X and 24X for the first and
second baseline, respectively. We believe ShapeFlow is a practical tool that
benefits machine learning developers. We will open-source ShapeFlow on GitHub
to make it publicly available to both the developer and research communities.
- Abstract(参考訳): これはtensorflowの動的抽象インタプリタで、ディープラーニングコードの最も一般的なバグの1つである、テンソル形状の非互換性エラーを素早く検出する。
ShapeFlowはTensorFlowと同じAPIを共有しているが、抽象ドメインであるテンソル形状のみをキャプチャして出力する。
ShapeFlowは、TensorFlowが使用している計算グラフと同様、カスタム形状の計算グラフを構築する。
ShapeFlowはプログラマによるコードアノテーションやコード修正を必要としないため、便利である。
本研究では、従来の実証研究によって収集された52プログラムのShapeFlowを評価し、TensorFlowと比較して形状不整合誤差をいかに高速かつ正確に把握できるかを示す。
最悪の場合のトレーニングデータセットのサイズと、より現実的なデータセットサイズです。
shapeflowは、シェイプ非互換性エラー(偽陽性なし、偽陰性なし)を高精度に検出し、1番目のベースラインで平均499倍、24倍のスピードアップを高い効率で検出する。
ShapeFlowは機械学習開発者の役に立つ実用的なツールだと思います。
私たちはGitHubでShapeFlowをオープンソースにして、開発者と研究コミュニティの両方に公開します。
関連論文リスト
- Conformation Generation using Transformer Flows [55.2480439325792]
本稿では,トランスネットワークに基づくコンフォーメーション生成のためのフローベースモデルConfFlowを提案する。
ConfFlowは、明示的な物理的制約を課すことなく、座標空間で直接サンプリングする。
ConfFlowは、最先端の学習ベースの方法と比較して、最大40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-11-16T14:42:05Z) - PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator [73.80050807279461]
Piecewise Rectified Flow (PeRFlow) は拡散モデルの高速化のためのフローベース手法である。
PeRFlowは数ステップの世代で優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-13T07:10:53Z) - PaddingFlow: Improving Normalizing Flows with Padding-Dimensional Noise [4.762593660623934]
パディングフロー(PaddingFlow)は,パディング次元雑音による正規化フローを改善する新しいデクエント化法である。
非条件密度推定の主ベンチマークで本手法の有効性を検証した。
この結果から,PaddingFlowはすべての実験において優れた性能を発揮できることがわかった。
論文 参考訳(メタデータ) (2024-03-13T03:28:39Z) - Expected flow networks in stochastic environments and two-player zero-sum games [63.98522423072093]
生成フローネットワーク(GFlowNets)は、所定の分布に合わせてトレーニングされた逐次サンプリングモデルである。
我々はGFlowNetsを環境に拡張する予測フローネットワーク(EFlowNets)を提案する。
本稿では,タンパク質設計などのタスクにおいて,EFlowNetが他のGFlowNetよりも優れていることを示す。
次に、EFlowNetsの概念を敵環境に拡張し、2プレイヤーゼロサムゲームのための敵フローネットワーク(AFlowNets)を提案する。
論文 参考訳(メタデータ) (2023-10-04T12:50:29Z) - Trieste: Efficiently Exploring The Depths of Black-box Functions with
TensorFlow [50.691232400959656]
Triesteは、ベイジアン最適化とアクティブラーニングのためのオープンソースのPythonパッケージである。
我々のライブラリは、シーケンシャルな意思決定ループ内で人気のあるモデルのプラグアンドプレイを可能にする。
論文 参考訳(メタデータ) (2023-02-16T17:21:49Z) - OneFlow: Redesign the Distributed Deep Learning Framework from Scratch [17.798586916628174]
OneFlowは、SBP(スプリット、ブロードキャスト、部分値)の抽象化とアクターモデルに基づく、新しい分散トレーニングフレームワークである。
SBPは既存のフレームワークよりも、データ並列処理やモデル並列処理のプログラミングがずっと簡単になります。
OneFlowは、最先端のフレームワーク上に構築された多くの有名なカスタマイズライブラリよりも優れています。
論文 参考訳(メタデータ) (2021-10-28T11:32:14Z) - DeepLab2: A TensorFlow Library for Deep Labeling [118.95446843615049]
DeepLab2は、コンピュータビジョンにおける一般的な高密度ピクセル予測問題に対するディープラベリングのためのライブラリである。
DeepLab2には、トレーニング済みのチェックポイントとモデルトレーニングと評価コードを備えた、最近開発したDeepLabモデルのバリエーションがすべて含まれています。
DeepLab2の有効性を示すために、Axial-SWideRNetをネットワークバックボーンとして使用したPanoptic-DeepLabは、Cityscaspes検証セット上で68.0% PQまたは83.5% mIoUを達成した。
論文 参考訳(メタデータ) (2021-06-17T18:04:53Z) - Implicit Normalizing Flows [43.939289514978434]
ImpFlows は正規化フローを一般化し、写像を方程式の根元によって暗黙的に定義できるようにします。
ImpFlowの関数空間はResFlowsの関数空間よりも厳密にリッチであることを示す。
ImpFlowsからサンプルをトレーニングし、描画するためのスケーラブルなアルゴリズムを提案します。
論文 参考訳(メタデータ) (2021-03-17T09:24:04Z) - OneFlow: One-class flow for anomaly detection based on a minimal volume
region [12.691473293758607]
OneFlowは、異常(異常)検出のためのフローベースの1クラス分類器である。
結果が外れ値の構造に依存しないように構成されている。
提案手法は,実世界の異常検出問題に対する関連手法より優れている。
論文 参考訳(メタデータ) (2020-10-06T20:09:11Z) - VirtualFlow: Decoupling Deep Learning Models from the Underlying
Hardware [9.461227523454188]
最先端のディープラーニングシステムは、モデルを基盤となるハードウェアと密に結合する。
ハードウェアからモデルを切り離すためにVirtualFlowを提案する。
トレーニングや推論の各ステップでは、入力データのバッチはハードウェアアクセラレータではなく仮想ノードに分割される。
論文 参考訳(メタデータ) (2020-09-20T20:49:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。