論文の概要: Swift for TensorFlow: A portable, flexible platform for deep learning
- arxiv url: http://arxiv.org/abs/2102.13243v1
- Date: Fri, 26 Feb 2021 00:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 17:22:12.498271
- Title: Swift for TensorFlow: A portable, flexible platform for deep learning
- Title(参考訳): Swift for TensorFlow: ディープラーニングのためのポータブルで柔軟なプラットフォーム
- Authors: Brennan Saeta, Denys Shabalin, Marc Rasi, Brad Larson, Xihui Wu,
Parker Schuh, Michelle Casbon, Daniel Zheng, Saleem Abdulrasool, Aleksandr
Efremov, Dave Abrahams, Chris Lattner, and Richard Wei
- Abstract要約: swift forは、モバイルデバイスからデータセンタ内のハードウェアアクセラレータのクラスタまで、スケール可能なディープラーニングプラットフォームである。
言語統合型自動微分システムと、可変値セマンティクスを指向した最新の事前コンパイル言語内での複数の実装を組み合わせる。
その結果得られたプラットフォームは、30以上のディープラーニングモデルで使用することで検証され、データセンタとモバイルアプリケーションで採用されている。
- 参考スコア(独自算出の注目度): 43.710629125755915
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Swift for TensorFlow is a deep learning platform that scales from mobile
devices to clusters of hardware accelerators in data centers. It combines a
language-integrated automatic differentiation system and multiple Tensor
implementations within a modern ahead-of-time compiled language oriented around
mutable value semantics. The resulting platform has been validated through use
in over 30 deep learning models and has been employed across data center and
mobile applications.
- Abstract(参考訳): Swift for TensorFlowは、モバイルデバイスから、データセンタ内のハードウェアアクセラレータのクラスタにスケールする、ディープラーニングプラットフォームである。
言語統合自動微分システムと複数のTensor実装を、可変値セマンティクスを指向した最新の事前コンパイル言語に組み合わせている。
その結果得られたプラットフォームは、30以上のディープラーニングモデルで使用することで検証され、データセンタとモバイルアプリケーションで採用されている。
関連論文リスト
- PlateSegFL: A Privacy-Preserving License Plate Detection Using Federated Segmentation Learning [0.0]
PlateSegFLがFederated Learning (FL)と共にU-Netベースのセグメンテーションを実装した
携帯電話のような様々なコンピューティングプラットフォームは、標準的な予測モデルの開発に協力することができる。
論文 参考訳(メタデータ) (2024-04-07T19:10:02Z) - FedKit: Enabling Cross-Platform Federated Learning for Android and iOS [2.9863519664139955]
FedKitは、AndroidとiOSデバイスの研究のためのクロスプラットフォームのフェデレーション学習システムである。
FedKitは、モデル変換、ハードウェアアクセラレーションのトレーニング、クロスプラットフォームモデルアグリゲーションを可能にすることで、クロスプラットフォームFL開発をパイプライン化する。
私たちのFLワークフローは、プロダクションでの柔軟な機械学習操作(MLOps)をサポートし、継続的モデルのデリバリとトレーニングを容易にします。
論文 参考訳(メタデータ) (2024-02-16T06:00:31Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - Split Federated Learning on Micro-controllers: A Keyword Spotting
Showcase [1.4794135558227681]
フェデレートラーニング(Federated Learning)は,ユーザの生データをサーバに収集することなく,ローカルでモデルをトレーニングする,プライベートラーニングスキームとして提案されている。
本研究では,Arduinoボード上に単純なSFLフレームワークを実装し,90%以上の精度でキーワードスポッティングアプリケーションのための中国語桁音声データセットの正当性を検証した。
英数字音声データセットでは、SFL実装は最先端のFL実装と比較して13.89%高い精度を実現している。
論文 参考訳(メタデータ) (2022-10-04T23:42:45Z) - TopFormer: Token Pyramid Transformer for Mobile Semantic Segmentation [111.8342799044698]
textbfToken textbfPyramid Vision Transtextbfformer (textbfTopFormer)というモバイルフレンドリーなアーキテクチャを提案する。
提案された textbfTopFormer は Tokens を様々なスケールから入力として取り出して,スケール対応のセマンティック機能を生成し,対応するトークンに注入して表現を拡大する。
ADE20Kデータセットでは、TopFormerはMobileNetV3よりもmIoUの精度が5%高く、ARMベースのモバイルデバイスではレイテンシが低い。
論文 参考訳(メタデータ) (2022-04-12T04:51:42Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - TF-Coder: Program Synthesis for Tensor Manipulations [29.46838583290554]
本稿では,プルーニングを例に,TF-Coderというプログラミングツールを提案する。
入力と出力のテンソルの特徴とタスクの自然言語記述から操作を予測するためにモデルを訓練する。
TF-Coderは、実世界のタスクのうち63を5分以内に解決する。
論文 参考訳(メタデータ) (2020-03-19T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。