論文の概要: TensorFlow with user friendly Graphical Framework for object detection
API
- arxiv url: http://arxiv.org/abs/2006.06385v1
- Date: Thu, 11 Jun 2020 13:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:32:16.407244
- Title: TensorFlow with user friendly Graphical Framework for object detection
API
- Title(参考訳): オブジェクト検出APIのためのユーザフレンドリなグラフィカルフレームワークTensorFlow
- Authors: Heemoon Yoon, Sang-Hee Lee, Mira Park
- Abstract要約: Graphical Framework(TF-GraF)は、ディープラーニングデータフローのためのオープンソースのフレームワークであり、音声分析、自然言語処理、コンピュータビジョンのアプリケーションインターフェース(API)を含んでいる。
TF-GraFは、サーバ側のユーザアカウントに従って独立した仮想環境を提供し、クライアント側のCLIなしでのデータ前処理、トレーニング、評価を実行する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TensorFlow is an open-source framework for deep learning dataflow and
contains application programming interfaces (APIs) of voice analysis, natural
language process, and computer vision. Especially, TensorFlow object detection
API in computer vision field has been widely applied to technologies of
agriculture, engineering, and medicine but barriers to entry of the framework
usage is still high through command-line interface (CLI) and code for amateurs
and beginners of information technology (IT) field. Therefore, this is aim to
develop an user friendly Graphical Framework for object detection API on
TensorFlow which is called TensorFlow Graphical Framework (TF-GraF). The
TF-GraF provides independent virtual environments according to user accounts in
server-side, additionally, execution of data preprocessing, training, and
evaluation without CLI in client-side. Furthermore, hyperparameter setting,
real-time observation of training process, object visualization of test images,
and metrics evaluations of test data can also be operated via TF-GraF.
Especially, TF-GraF supports flexible model selection of SSD, Faster-RCNN,
RFCN, and Mask-RCNN including convolutional neural networks (inceptions and
ResNets) through GUI environment. Consequently, TF-GraF allows anyone, even
without any previous knowledge of deep learning frameworks, to design, train
and deploy machine intelligence models without coding. Since TF-GraF takes care
of setting and configuration, it allows anyone to use deep learning technology
for their project without spending time to install complex software and
environment.
- Abstract(参考訳): TensorFlowはディープラーニングデータフローのためのオープンソースのフレームワークであり、音声分析、自然言語処理、コンピュータビジョンのアプリケーションプログラミングインターフェース(API)を含んでいる。
特に、コンピュータビジョン分野におけるTensorFlowオブジェクト検出APIは、農業、工学、医学のテクノロジーに広く適用されてきたが、フレームワークの入力障壁は、コマンドラインインターフェース(CLI)とアマチュアやIT分野の初心者のためのコードを通じて依然として高い。
そのため、TensorFlow Graphical Framework(TF-GraF)と呼ばれるTensorFlow上のオブジェクト検出API用のユーザフレンドリなGraphical Frameworkを開発することを目指している。
TF-GraFは、サーバ側のユーザアカウントに従って独立した仮想環境を提供し、クライアント側のCLIなしでのデータ前処理、トレーニング、評価を実行する。
さらに、TF-GraFにより、ハイパーパラメータ設定、トレーニングプロセスのリアルタイム観察、テスト画像のオブジェクト可視化、テストデータのメトリクス評価も操作できる。
特にTF-GraFは、GUI環境を通じて畳み込みニューラルネットワーク(インセプションとResNet)を含むSSD、Faster-RCNN、RFCN、Mask-RCNNの柔軟なモデル選択をサポートする。
その結果、TF-GraFでは、ディープラーニングフレームワークに関するこれまでの知識がなくても、コーディングなしでマシンインテリジェンスモデルを設計、トレーニング、デプロイすることができる。
TF-GraFは設定と設定を行うので、複雑なソフトウェアや環境をインストールするのに時間を費やすことなく、プロジェクトのためにディープラーニング技術を使用することができます。
関連論文リスト
- Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Exploiting Features and Logits in Heterogeneous Federated Learning [0.2538209532048866]
フェデレーテッド・ラーニング(FL)は、エッジデバイスの管理を容易にすることで、共有モデルを協調的にトレーニングする。
本稿では,特徴量とロジットを管理することによって異種クライアントモデルをサポートする新しいデータフリーFL法を提案する。
Feloとは異なり、サーバはVeroに条件付きVAEを持ち、これは中レベルの機能をトレーニングし、ラベルに従って合成機能を生成するために使用される。
論文 参考訳(メタデータ) (2022-10-27T15:11:46Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - When Transformer Meets Robotic Grasping: Exploits Context for Efficient
Grasp Detection [1.7013938542585925]
本稿では,ロボットグリップ検出のためのトランスフォーマーアーキテクチャTF-Graspを提案する。
フレームワークには2つの精巧な設計があり、視覚的な把握作業に適している。
TF-Graspは、最先端の把握畳み込みモデルよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-02-24T05:47:25Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - AutoFlow: Learning a Better Training Set for Optical Flow [62.40293188964933]
AutoFlowは、光学フローのトレーニングデータをレンダリングする手法である。
AutoFlowはPWC-NetとRAFTの両方の事前トレーニングにおいて最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-04-29T17:55:23Z) - Transparent FPGA Acceleration with TensorFlow [1.0828616610785522]
我々は,新しいディープラーニングアクセラレータを利用したい開発者のためのツールフローを提案する。
バックエンドでは、ランタイム環境経由でアクセス可能なFPGAを使用します。
これは、ハードウェアがネットワークの構造で静的に構成されていないため、HSAツールフローによって実現できます。
論文 参考訳(メタデータ) (2021-02-02T06:49:33Z) - tf.data: A Machine Learning Data Processing Framework [0.4588028371034406]
機械学習モデルのトレーニングには、モデルに入力データを入力する必要がある。
機械学習ジョブのための効率的な入力パイプラインの構築と実行のためのフレームワークであるtf.dataを提案する。
入力パイプラインのパフォーマンスは、最先端の機械学習モデルのエンドツーエンドのトレーニング時間に極めて重要であることを実証する。
論文 参考訳(メタデータ) (2021-01-28T17:16:46Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。