論文の概要: Training Transformers Together
- arxiv url: http://arxiv.org/abs/2207.03481v1
- Date: Thu, 7 Jul 2022 17:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 14:53:43.173941
- Title: Training Transformers Together
- Title(参考訳): 変圧器を一緒に訓練する
- Authors: Alexander Borzunov, Max Ryabinin, Tim Dettmers, Quentin Lhoest, Lucile
Saulnier, Michael Diskin, Yacine Jernite, Thomas Wolf
- Abstract要約: このデモでは,OpenAI DALL-Eに似たテキスト・画像変換器を共同で訓練した。
このようなトレーニングの実行に関連する,エンジニアリング上の課題に対処する方法について説明する。
得られたモデルが複数のプロンプトに対して妥当な品質の画像を生成することを示す。
- 参考スコア(独自算出の注目度): 62.65287087770844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The infrastructure necessary for training state-of-the-art models is becoming
overly expensive, which makes training such models affordable only to large
corporations and institutions. Recent work proposes several methods for
training such models collaboratively, i.e., by pooling together hardware from
many independent parties and training a shared model over the Internet. In this
demonstration, we collaboratively trained a text-to-image transformer similar
to OpenAI DALL-E. We invited the viewers to join the ongoing training run,
showing them instructions on how to contribute using the available hardware. We
explained how to address the engineering challenges associated with such a
training run (slow communication, limited memory, uneven performance between
devices, and security concerns) and discussed how the viewers can set up
collaborative training runs themselves. Finally, we show that the resulting
model generates images of reasonable quality on a number of prompts.
- Abstract(参考訳): 最先端モデルのトレーニングに必要なインフラストラクチャは過大に高くなり、大企業や機関にのみ手頃な価格でトレーニングできるようになっている。
近年の研究では、多くの独立政党からハードウェアをプールし、インターネット上で共有モデルをトレーニングすることで、そのようなモデルを協調的にトレーニングする方法が提案されている。
このデモでは,OpenAI DALL-Eに似たテキスト・画像変換器を共同で訓練した。
私たちは視聴者に、利用可能なハードウェアを使ってコントリビュートする方法を指示して、現在進行中のトレーニングランに参加するように招待しました。
このようなトレーニング実行に関連するエンジニアリング上の課題(通信速度の低下、メモリの制限、デバイス間の不均一なパフォーマンス、セキュリティ上の懸念)に対処する方法について説明し、視聴者がどのようにコラボレーティブなトレーニングを実行するかを論じた。
最後に,結果のモデルが,複数のプロンプトに対して妥当な品質の画像を生成することを示す。
関連論文リスト
- Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision,
Language, Audio, and Action [46.76487873983082]
Unified-IO 2は、画像、テキスト、オーディオ、アクションの理解と生成が可能な最初の自己回帰型マルチモーダルモデルである。
我々は、多様な情報源から、大規模なマルチモーダル事前学習コーパスをスクラッチからトレーニングする。
単一の統一モデルにより、Unified-IO 2はGRITベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-28T17:57:06Z) - One-stop Training of Multiple Capacity Models [74.87789190840527]
本稿では,高容量・低容量モデルとの共同学習のためのワンストップトレーニングフレームワークを提案する。
複数のキャパシティモデルをスクラッチから個別に訓練する知識蒸留とは異なり、我々の手法は異なるキャパシティモデルからの監督を同時に統合する。
論文 参考訳(メタデータ) (2023-05-23T13:44:09Z) - Dive into Big Model Training [6.809653573125388]
トレーニングの目的は、Webスケールのデータを活用して、非常に有能で信じられないほど大きなモデルを開発する方法を説明する。
分散トレーニングに基づくトレーニング手法は、大規模なモデルトレーニングを現実にする方法を説明する。
論文 参考訳(メタデータ) (2022-07-25T05:38:39Z) - Challenges and Obstacles Towards Deploying Deep Learning Models on
Mobile Devices [1.422288795020666]
ディープラーニングモデルは、多くの高レベルのジェネリックフレームワークとライブラリを使って開発されている。
モバイルデバイス上でモデルを実行するには、ハードウェアによる最適化が必要です。
本稿では,モバイルデバイスにディープラーニングモデルをデプロイするための既存の課題,障害,実践的ソリューションについて述べる。
論文 参考訳(メタデータ) (2021-05-06T12:40:28Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z) - SplitEasy: A Practical Approach for Training ML models on Mobile Devices [4.280248134477515]
分割学習は、低消費電力モバイルデバイス上で複雑なディープラーニング(DL)モデルをトレーニングするための有望なテクニックである。
スプリットラーニングを用いてモバイルデバイス上でMLモデルをトレーニングするフレームワークであるSplitEasyを提案する。
SplitEasyは、モバイルデバイスでのみトレーニングできないモデルをトレーニングし、データサンプル毎にほぼ一定時間実行できるようにする。
論文 参考訳(メタデータ) (2020-11-09T07:41:43Z) - A Deeper Look at Salient Object Detection: Bi-stream Network with a
Small Training Dataset [62.26677215668959]
4K画像のみを含む新しい小規模トレーニングセットを構築するための実現可能な方法を提案する。
提案する小型トレーニングセットをフル活用するために,新しい双方向ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T01:24:33Z) - Federated Generative Adversarial Learning [13.543039993168735]
GAN(Generative Adversarial Network)は、様々な現実世界のアプリケーションにおいて進歩を遂げている。
GANは実際のケースでデータ制限の問題に悩まされている。
本稿では,フェデレート学習フレームワークを用いた新しい生成学習手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T23:06:49Z) - Single-step Adversarial training with Dropout Scheduling [59.50324605982158]
単段階逆行訓練法を用いて学習したモデルは、単段階逆行の発生を防止するために学習する。
提案手法を用いて訓練されたモデルは, 単段階攻撃と多段階攻撃の両方に対して堅牢である。
論文 参考訳(メタデータ) (2020-04-18T14:14:00Z) - UniVL: A Unified Video and Language Pre-Training Model for Multimodal
Understanding and Generation [76.12027504427708]
本稿では,マルチモーダル理解と生成のためのUnified Video and Language事前学習モデルUniVLを提案する。
2つのシングルモーダルエンコーダ、クロスエンコーダ、トランスフォーマーバックボーンを備えたデコーダを含む4つのコンポーネントから構成される。
ステージバイステージ事前学習(StagedP)と拡張ビデオ表現(EnhancedV)の2つの事前学習戦略を開発し、UniVLのトレーニングプロセスをより効果的にする。
論文 参考訳(メタデータ) (2020-02-15T10:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。