論文の概要: CARLS: Cross-platform Asynchronous Representation Learning System
- arxiv url: http://arxiv.org/abs/2105.12849v1
- Date: Wed, 26 May 2021 21:19:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 10:35:47.845428
- Title: CARLS: Cross-platform Asynchronous Representation Learning System
- Title(参考訳): CARLS:クロスプラットフォーム非同期表現学習システム
- Authors: Chun-Ta Lu, Yun Zeng, Da-Cheng Juan, Yicheng Fan, Zhe Li, Jan Dlabal,
Yi-Ting Chen, Arjun Gopalan, Allan Heydon, Chun-Sung Ferng, Reah Miyara,
Ariel Fuxman, Futang Peng, Zhen Li, Tom Duerig, Andrew Tomkins
- Abstract要約: 本稿では,既存のディープラーニングフレームワークの能力向上のための新しいフレームワークであるCARLSを提案する。
CARLSにより効率的にスケールアップできる3つの学習パラダイムについて述べる。
- 参考スコア(独自算出の注目度): 24.96062146968367
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we propose CARLS, a novel framework for augmenting the capacity
of existing deep learning frameworks by enabling multiple components -- model
trainers, knowledge makers and knowledge banks -- to concertedly work together
in an asynchronous fashion across hardware platforms. The proposed CARLS is
particularly suitable for learning paradigms where model training benefits from
additional knowledge inferred or discovered during training, such as node
embeddings for graph neural networks or reliable pseudo labels from model
predictions. We also describe three learning paradigms -- semi-supervised
learning, curriculum learning and multimodal learning -- as examples that can
be scaled up efficiently by CARLS. One version of CARLS has been open-sourced
and available for download at:
https://github.com/tensorflow/neural-structured-learning/tree/master/research/carls
- Abstract(参考訳): 本研究では,モデルトレーナー,ナレッジメーカ,ナレッジバンクなど複数のコンポーネントをハードウェアプラットフォーム全体で非同期に連携させることにより,既存のディープラーニングフレームワークのキャパシティを向上するための新しいフレームワークであるCARLSを提案する。
提案したCARLSは、グラフニューラルネットワークのノード埋め込みやモデル予測からの信頼できる疑似ラベルなど、トレーニング中に推測または発見された追加知識からモデルトレーニングが恩恵を受ける学習パラダイムに特に適している。
また、CARLSによって効率的にスケールアップできる例として、半教師付き学習、カリキュラム学習、マルチモーダル学習の3つの学習パラダイムについて説明する。
https://github.com/tensorflow/neural-structured-learning/tree/master/research/carls
関連論文リスト
- PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Structured Cooperative Learning with Graphical Model Priors [98.53322192624594]
ローカルデータに制限のある分散デバイス上で、さまざまなタスクに対してパーソナライズされたモデルをトレーニングする方法を研究する。
本稿では,デバイス間の協調グラフをグラフィカルモデルにより生成する「構造化協調学習(SCooL)」を提案する。
SCooLを評価し,既存の分散学習手法と比較した。
論文 参考訳(メタデータ) (2023-06-16T02:41:31Z) - Knowledge Transfer For On-Device Speech Emotion Recognition with Neural
Structured Learning [19.220263739291685]
音声感情認識(SER)は、ヒューマン・コンピュータ・インタラクション(HCI)において人気のある研究トピックである。
合成グラフ構築によるニューラル構造化学習(NSL)フレームワークを提案する。
実験の結果,音声サンプルとグラフを用いた軽量SERモデルの訓練は,小さなSERモデルを生成するだけでなく,モデル性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-10-26T18:38:42Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - DMCNet: Diversified Model Combination Network for Understanding
Engagement from Video Screengrabs [0.4397520291340695]
エンゲージメントは知的教育インタフェースの開発において重要な役割を果たしている。
非深さ学習モデルは、Histogram of Oriented Gradient(HOG)、SVM(Support Vector Machine)、SIFT(Scale Invariant Feature Transform)、SURF(Speeded Up Robust Features)といった一般的なアルゴリズムの組み合わせに基づいている。
ディープラーニングには、Densely Connected Convolutional Networks (DenseNet-121)、Residual Network (ResNet-18)、MobileNetV1がある。
論文 参考訳(メタデータ) (2022-04-13T15:24:38Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Flexible model composition in machine learning and its implementation in
MLJ [1.1091975655053545]
機械学習モデルをメタモデルに組み合わせた「学習ネットワーク」と呼ばれるグラフベースのプロトコルについて述べる。
学習ネットワークはwolpertのモデル積み重ねを含むのに十分柔軟であり,ベース学習者に対してサンプル外の予測を行うことが示されている。
論文 参考訳(メタデータ) (2020-12-31T08:49:43Z) - Small-Group Learning, with Application to Neural Architecture Search [17.86826990290058]
人間の学習では、学生の小さなグループが同じ学習目標に向かって協力し、そこでトピックに対する理解を仲間に表現し、アイデアを比較し、互いにトラブルシュートを手助けします。
本稿では,新しいMLフレームワークであるSGL(Small-group Learning)を開発することにより,機械学習モデルを改善するために,この人的学習手法を借用できるかどうかを検討することを目的とする。
sglは、3つの学習段階からなる多レベル最適化フレームワークとして定式化されている: 各学習者は独立してモデルを訓練し、このモデルを使って擬似ラベルを実行する。
論文 参考訳(メタデータ) (2020-12-23T05:56:47Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z) - Revisiting Meta-Learning as Supervised Learning [69.2067288158133]
メタラーニングと従来の教師付き学習の関連性を再考し,強化することで,原則的,統一的なフレームワークの提供を目指す。
タスク固有のデータセットとターゲットモデルを(機能、ラベル)サンプルとして扱うことで、多くのメタ学習アルゴリズムを教師付き学習のインスタンスに還元することができる。
この視点は、メタラーニングを直感的で実践的なフレームワークに統一するだけでなく、教師付き学習から直接洞察を伝達してメタラーニングを改善することができる。
論文 参考訳(メタデータ) (2020-02-03T06:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。