論文の概要: A Fast Edge-Based Synchronizer for Tasks in Real-Time Artificial
Intelligence Applications
- arxiv url: http://arxiv.org/abs/2012.11731v1
- Date: Mon, 21 Dec 2020 23:02:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:41:16.649713
- Title: A Fast Edge-Based Synchronizer for Tasks in Real-Time Artificial
Intelligence Applications
- Title(参考訳): リアルタイム人工知能アプリケーションにおけるタスクのための高速エッジベース同期器
- Authors: Richard Olaniyan and Muthucumaru Maheswaran
- Abstract要約: デバイス間のタスク同期は、AIアプリケーションのタイムリーな進捗に影響を与える重要な問題です。
入力出力タスクの実行と計算タスクをタイムアライメントできる高速エッジベースの同期スキームを開発しています。
- 参考スコア(独自算出の注目度): 0.8122270502556374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time artificial intelligence (AI) applications mapped onto edge
computing need to perform data capture, process data, and device actuation
within given bounds while using the available devices. Task synchronization
across the devices is an important problem that affects the timely progress of
an AI application by determining the quality of the captured data, time to
process the data, and the quality of actuation. In this paper, we develop a
fast edge-based synchronization scheme that can time align the execution of
input-output tasks as well compute tasks. The primary idea of the fast
synchronizer is to cluster the devices into groups that are highly synchronized
in their task executions and statically determine few synchronization points
using a game-theoretic solver. The cluster of devices use a late notification
protocol to select the best point among the pre-computed synchronization points
to reach a time aligned task execution as quickly as possible. We evaluate the
performance of our synchronization scheme using trace-driven simulations and we
compare the performance with existing distributed synchronization schemes for
real-time AI application tasks. We implement our synchronization scheme and
compare its training accuracy and training time with other parameter server
synchronization frameworks.
- Abstract(参考訳): エッジコンピューティングにマッピングされたリアルタイム人工知能(AI)アプリケーションは、利用可能なデバイスを使用しながら、所定のバウンド内でデータキャプチャ、データ処理、デバイスアクティベーションを実行する必要がある。
デバイス間のタスク同期は、キャプチャされたデータの品質、データの処理時間、アクティベーションの品質を決定することによって、AIアプリケーションのタイムリーな進捗に影響を与える重要な問題である。
本稿では,入力出力タスクの実行と計算タスクの時間的整合が可能な,エッジベースの高速同期方式を提案する。
高速同期器の第一のアイデアは、デバイスをタスク実行時に高度に同期するグループにまとめ、ゲーム理論的な解法を用いて、静的に少数の同期点を決定することである。
デバイスのクラスタは、遅延通知プロトコルを使用して、予め計算された同期ポイントのベストポイントを選択し、できるだけ早くタイムアラインなタスク実行に到達する。
トレース駆動型シミュレーションを用いて同期方式の性能を評価し,実時間AIアプリケーションタスクの分散同期方式との比較を行った。
同期方式を実装し、トレーニング精度とトレーニング時間を他のパラメータサーバ同期フレームワークと比較する。
関連論文リスト
- Asynchronous Tool Usage for Real-Time Agents [61.3041983544042]
並列処理とリアルタイムツール利用が可能な非同期AIエージェントを導入する。
私たちの重要な貢献は、エージェントの実行とプロンプトのためのイベント駆動有限状態マシンアーキテクチャです。
この研究は、流体とマルチタスクの相互作用が可能なAIエージェントを作成するための概念的なフレームワークと実践的なツールの両方を提示している。
論文 参考訳(メタデータ) (2024-10-28T23:57:19Z) - Event-ECC: Asynchronous Tracking of Events with Continuous Optimization [1.9446776999250501]
イベントECC (eECC) という,イベントごとの2次元運動ワープを計算するトラッキングアルゴリズムを提案する。
イベント処理の計算負担は、インクリメンタル処理と更新スキームの恩恵を受ける軽量バージョンによって軽減される。
最先端のイベントベース非同期トラッカーにおける追跡精度と特徴年齢の改善について報告する。
論文 参考訳(メタデータ) (2024-09-22T19:03:19Z) - Synchformer: Efficient Synchronization from Sparse Cues [100.89656994681934]
コントリビューションには、新しい音声-視覚同期モデル、同期モデルからの抽出を分離するトレーニングが含まれる。
このアプローチは、濃密な設定とスパース設定の両方において最先端の性能を実現する。
また,100万スケールの 'in-the-wild' データセットに同期モデルのトレーニングを拡張し,解釈可能性に対するエビデンス属性技術を調査し,同期モデルの新たな機能であるオーディオ-視覚同期性について検討する。
論文 参考訳(メタデータ) (2024-01-29T18:59:55Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Motion2Language, unsupervised learning of synchronized semantic motion
segmentation [0.0]
動作から言語への変換と同期のためのシーケンスアーキテクチャの構築について検討する。
目的は、モーションキャプチャ入力を英語の自然言語記述に変換し、その記述が実行された動作と同期して生成されるようにすることである。
本稿では、同期/ライブテキスト生成に適した局所的注意の新たな再帰的定式化と、改良されたモーションエンコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-10-16T17:16:32Z) - Sparse in Space and Time: Audio-visual Synchronisation with Trainable
Selectors [103.21152156339484]
本研究の目的は,一般映像の「野生」音声・視覚同期である。
我々は4つのコントリビューションを行う: (i) スパース同期信号に必要な長時間の時間的シーケンスを処理するために、'セレクタ'を利用するマルチモーダルトランスモデルを設計する。
音声やビデオに使用される圧縮コーデックから生じるアーティファクトを識別し、トレーニングにおいてオーディオ視覚モデルを用いて、同期タスクを人工的に解くことができる。
論文 参考訳(メタデータ) (2022-10-13T14:25:37Z) - Asynchronous Execution of Heterogeneous Tasks in ML-driven HPC Workflows [1.376408511310322]
非同期実行は、リソース利用、タスクのスループット、sakepanの削減に不可欠である。
機械学習(ML)駆動ハイパフォーマンスコンピューティングにおける非同期タスク実行の要件と特性について検討する。
私たちの実験は,関連する科学的要因を表現し,サミットで大規模に実施し,非同期実行によるパフォーマンス向上が我々のモデルと一致していることを示す。
論文 参考訳(メタデータ) (2022-08-23T16:25:48Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Self-timed Reinforcement Learning using Tsetlin Machine [1.104960878651584]
本稿では、推論データパスの遅延解析とともに、Tsetlinマシンアルゴリズムの学習データパスのためのハードウェア設計を提案する。
結果として、パーソナライズされたヘルスケアやバッテリ駆動のIoTデバイスといったアプリケーションにおける非同期設計の利点が示されている。
論文 参考訳(メタデータ) (2021-09-02T11:24:23Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。