論文の概要: The State of the Art when using GPUs in Devising Image Generation
Methods Using Deep Learning
- arxiv url: http://arxiv.org/abs/2109.05783v1
- Date: Mon, 13 Sep 2021 09:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:20:57.571237
- Title: The State of the Art when using GPUs in Devising Image Generation
Methods Using Deep Learning
- Title(参考訳): 深層学習を用いた画像生成手法開発におけるGPU活用技術の現状
- Authors: Yasuko Kawahata
- Abstract要約: ディープラーニングは、多層ニューラルネットワークを用いた機械学習のテクニックである。
画像合成や画像認識に用いられてきたが、近年は様々な社会的検出や社会的ラベル付けにも用いられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning is a technique for machine learning using multi-layer neural
networks. It has been used for image synthesis and image recognition, but in
recent years, it has also been used for various social detection and social
labeling. In this analysis, we compared (1) the number of Iterations per minute
between the GPU and CPU when using the VGG model and the NIN model, and (2) the
number of Iterations per minute by the number of pixels when using the VGG
model, using an image with 128 pixels. When the number of pixels was 64 or 128,
the processing time was almost the same when using the GPU, but when the number
of pixels was changed to 256, the number of iterations per minute decreased and
the processing time increased by about three times. In this case study, since
the number of pixels becomes core dumping when the number of pixels is 512 or
more, we can consider that we should consider improvement in the vector
calculation part. If we aim to achieve 8K highly saturated computer graphics
using neural networks, we will need to consider an environment that allows
computation even when the size of the image becomes even more highly saturated
and massive, and parallel computation when performing image recognition and
tuning.
- Abstract(参考訳): ディープラーニングは、多層ニューラルネットワークを用いた機械学習のテクニックである。
画像合成や画像認識にも用いられてきたが、近年では様々な社会的検出や社会的ラベル付けにも用いられている。
本研究では,(1)vggモデルとninモデルを用いた場合のgpuとcpu間の1分間のイテレーション数,(2)vggモデルを使用する場合の1分間のイテレーション数を128ピクセルの画像を用いて比較した。
画素数が64または128の場合、gpuを使用する場合、処理時間はほぼ同じであったが、画素数が256に変更された場合、1分あたりのイテレーション数が減少し、処理時間が約3倍に増加した。
このケーススタディでは、画素数が512以上の場合にコアダンプとなるため、ベクトル計算部での改善を検討する必要があると考えられる。
ニューラルネットワークを用いた8k高飽和コンピュータグラフィックスの実現を目指す場合,画像サイズがさらに高度に飽和して大規模になった場合でも,画像認識やチューニングを行う際の並列計算が可能な環境を考える必要がある。
関連論文リスト
- Parallel Watershed Partitioning: GPU-Based Hierarchical Image Segmentation [4.560718678349679]
多くの画像処理アプリケーションは、画像が「類似した」画素の非結合領域に分割することに依存している。
機械学習に基づくセマンティックセグメンテーションのための前処理ステップとして,この完全決定論的イメージパーティショニングを利用する方法を示す。
論文 参考訳(メタデータ) (2024-10-11T16:15:43Z) - Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - Autism Disease Detection Using Transfer Learning Techniques: Performance
Comparison Between Central Processing Unit vs Graphics Processing Unit
Functions for Neural Networks [2.750124853532831]
自閉症児と非自閉症児の顔画像を用いた自閉症疾患の分類システムを構築し,パフォーマンスの比較を行った。
また,全試験でGPUがCPUより優れていた。
論文 参考訳(メタデータ) (2023-06-01T01:59:17Z) - T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - Iterative Patch Selection for High-Resolution Image Recognition [10.847032625429717]
本稿では,メモリ使用量を入力サイズから分離する単純な手法であるIPSを提案する。
IPSは、最も健全なパッチだけを選択してこれを達成し、画像認識のためのグローバルな表現に集約する。
本手法は,最小のアクセラレータメモリを使用しながら,異なる領域,トレーニング体制,画像サイズにまたがって高い性能を示し,幅広い適用性を有する。
論文 参考訳(メタデータ) (2022-10-24T07:55:57Z) - Accelerated Deep Lossless Image Coding with Unified Paralleleized GPU
Coding Architecture [1.2124289787900182]
我々のアルゴリズムはエントロピーエンコーダと組み合わせたニューラルネットワークに基づいている。
ニューラルネットワークは、ソース画像の各画素に対して密度推定を行う。
次に、密度推定を用いて対象画素を符号化し、圧縮率でFLIFを上回ります。
論文 参考訳(メタデータ) (2022-07-11T19:34:56Z) - Fast Training of Neural Lumigraph Representations using Meta Learning [109.92233234681319]
我々は、リアルタイムにレンダリングできる高品質な表現を素早く学習することを目的として、新しいニューラルレンダリングアプローチを開発した。
われわれのアプローチであるMetaNLR++は、ニューラル形状表現と2次元CNNに基づく画像特徴抽出、集約、再投影のユニークな組み合わせを用いてこれを実現する。
そこで本研究では,MetaNLR++が類似あるいはより優れたフォトリアリスティックなノベルビュー合成を実現し,競合する手法が要求される時間のほんの少しの時間で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-28T18:55:50Z) - Learning from Shader Program Traces [19.288861518662547]
画像処理のためのディープネットワークは通常、RGBピクセルから学習する。
本稿では,プログラム実行中に計算される中間値であるプログラムトレースから学習することを提案する。
論文 参考訳(メタデータ) (2021-02-08T21:08:14Z) - CNNs for JPEGs: A Study in Computational Cost [49.97673761305336]
畳み込みニューラルネットワーク(CNN)は過去10年間で驚くべき進歩を遂げてきた。
CNNはRGBピクセルから直接データの堅牢な表現を学習することができる。
近年,圧縮領域から直接学習できる深層学習手法が注目されている。
論文 参考訳(メタデータ) (2020-12-26T15:00:10Z) - Pyramidal Convolution: Rethinking Convolutional Neural Networks for
Visual Recognition [98.10703825716142]
この研究は、複数のフィルタスケールで入力を処理できるピラミッド畳み込み(PyConv)を導入している。
PyConvをベースとした,画像分類,映像行動分類/認識,オブジェクト検出,意味的画像分割/パーシングの4つの主要なタスクについて,異なるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-20T10:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。