論文の概要: IIsy: Practical In-Network Classification
- arxiv url: http://arxiv.org/abs/2205.08243v1
- Date: Tue, 17 May 2022 11:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:15:23.524476
- Title: IIsy: Practical In-Network Classification
- Title(参考訳): IIsy: 実践的なネットワーク内分類
- Authors: Changgang Zheng, Zhaoqi Xiong, Thanh T Bui, Siim Kaupmees, Riyad
Bensoussane, Antoine Bernabeu, Shay Vargaftik, Yaniv Ben-Itzhak, Noa
Zilberman
- Abstract要約: IIsyは、オフザシェルフネットワークデバイスを使用して、ハイブリッド方式で機械学習分類モデルを実装する。
IIsyはさまざまな従来型およびアンサンブル機械学習モデルをサポートし、スイッチパイプラインのステージ数とは独立してスケールする。
スイッチとバックエンドの大規模モデルに小さなモデルを実装し,最適な分類結果に近づいたIIsyのハイブリッド分類への応用を実証する。
- 参考スコア(独自算出の注目度): 2.608260886171156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rat race between user-generated data and data-processing systems is
currently won by data. The increased use of machine learning leads to further
increase in processing requirements, while data volume keeps growing. To win
the race, machine learning needs to be applied to the data as it goes through
the network. In-network classification of data can reduce the load on servers,
reduce response time and increase scalability. In this paper, we introduce
IIsy, implementing machine learning classification models in a hybrid fashion
using off-the-shelf network devices. IIsy targets three main challenges of
in-network classification: (i) mapping classification models to network devices
(ii) extracting the required features and (iii) addressing resource and
functionality constraints. IIsy supports a range of traditional and ensemble
machine learning models, scaling independently of the number of stages in a
switch pipeline. Moreover, we demonstrate the use of IIsy for hybrid
classification, where a small model is implemented on a switch and a large
model at the backend, achieving near optimal classification results, while
significantly reducing latency and load on the servers.
- Abstract(参考訳): ユーザ生成データとデータ処理システムの競争は、現在、データによって勝利している。
機械学習の利用が増加すると、処理要求がさらに増加し、データボリュームは増加し続ける。
レースに勝つためには、ネットワークを通過するときにデータに機械学習を適用する必要がある。
ネットワーク内のデータの分類は、サーバの負荷を減らし、応答時間を短縮し、スケーラビリティを向上させる。
本稿では,市販のネットワークデバイスを用いたハイブリッド方式で機械学習分類モデルを実装するIIsyを紹介する。
IIsyは、ネットワーク内分類の3つの主な課題をターゲットにしている。
(i)分類モデルをネットワークデバイスにマッピングする
(ii)必要な特徴を抽出すること、及び
(iii)リソースと機能の制約に対処する。
IIsyはさまざまな従来型およびアンサンブル機械学習モデルをサポートし、スイッチパイプラインのステージ数とは独立してスケールする。
さらに,スイッチとバックエンドの大規模モデルに小さなモデルを実装し,最適な分類結果に近い結果が得られるとともに,サーバの遅延や負荷を大幅に低減する,ハイブリッド分類におけるIIsyの利用を実証する。
関連論文リスト
- Defect Classification in Additive Manufacturing Using CNN-Based Vision
Processing [76.72662577101988]
本稿では、まず、畳み込みニューラルネットワーク(CNN)を用いて、画像データセットの欠陥をAMから第2に正確に分類し、発達した分類モデルにアクティブラーニング技術を適用する。
これにより、トレーニングデータやトレーニングデータの生成に必要なデータのサイズを削減できる、ヒューマン・イン・ザ・ループ機構の構築が可能になる。
論文 参考訳(メタデータ) (2023-07-14T14:36:58Z) - Data augmentation on-the-fly and active learning in data stream
classification [9.367903089535684]
予測モデルをオンザフライでトレーニングする必要性が高まっている。
学習モデルは、アクティブな学習予算を増やすことなく、より多くのラベル付きデータにアクセスすることができる。
Augmented Queuesは、学習の質とスピードに関して、パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2022-10-13T09:57:08Z) - Visualization Of Class Activation Maps To Explain AI Classification Of
Network Packet Captures [0.0]
ネットワーク内のコネクションの数と新しいアプリケーションの追加は、大量のログデータを引き起こします。
ディープラーニング手法は、特徴抽出と単一システムにおけるデータからの分類の両方を提供する。
本稿では、ネットワークデータの分類と説明技法を組み合わせて、専門家、アルゴリズム、データ間のインターフェースを形成する視覚対話型ツールを提案する。
論文 参考訳(メタデータ) (2022-09-05T16:34:43Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Parallel Machine Learning for Forecasting the Dynamics of Complex
Networks [0.0]
本稿では,大規模複雑ネットワークの力学を予測するための機械学習手法を提案する。
私たちは、関心のネットワークのトポロジを模倣する並列アーキテクチャを使用します。
論文 参考訳(メタデータ) (2021-08-27T06:06:41Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model
Training and Inference [85.02494022662505]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Network Support for High-performance Distributed Machine Learning [17.919773898228716]
学習ノード(計算を行う)と情報ノード(データを提供する)の両方をキャプチャするシステムモデルを提案する。
次に,学習課題を完了させるために,学習ノードと情報ノードが協調して行うべき課題と,実行すべきイテレーション数を選択する問題を定式化する。
我々はDoubleClimbというアルゴリズムを考案し、1+1/|I|競合解を見つけることができる。
論文 参考訳(メタデータ) (2021-02-05T19:38:57Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Training Data Augmentation for Deep Learning Radio Frequency Systems [1.1199585259018459]
この研究は、トレーニング中に使用されるデータに焦点を当てている。
一般に、検査されたデータ型はそれぞれ、最終アプリケーションに有用なコントリビューションを持っている。
キャプチャーデータの利点にもかかわらず、ライブコレクションから生じる困難さとコストは、ピークパフォーマンスを達成するのに必要なデータ量を非現実的にすることが多い。
論文 参考訳(メタデータ) (2020-10-01T02:26:16Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。