論文の概要: Iterative training of neural networks for intra prediction
- arxiv url: http://arxiv.org/abs/2003.06812v2
- Date: Wed, 25 Nov 2020 07:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:46:43.620946
- Title: Iterative training of neural networks for intra prediction
- Title(参考訳): イントラ予測のためのニューラルネットワークの反復学習
- Authors: Thierry Dumas, Franck Galpin and Philippe Bordes
- Abstract要約: 本稿では,ブロックベース画像とビデオにおける内部予測のためのニューラルネットワークの反復的トレーニングを提案する。
このトレーニングのおかげで、ニューラルネットワークは、初期イテレーションですでに目立った機能から、予測機能を学ぶことができる。
- 参考スコア(独自算出の注目度): 9.79240885347226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an iterative training of neural networks for intra
prediction in a block-based image and video codec. First, the neural networks
are trained on blocks arising from the codec partitioning of images, each
paired with its context. Then, iteratively, blocks are collected from the
partitioning of images via the codec including the neural networks trained at
the previous iteration, each paired with its context, and the neural networks
are retrained on the new pairs. Thanks to this training, the neural networks
can learn intra prediction functions that both stand out from those already in
the initial codec and boost the codec in terms of rate-distortion. Moreover,
the iterative process allows the design of training data cleansings essential
for the neural network training. When the iteratively trained neural networks
are put into H.265 (HM-16.15), -4.2% of mean dB-rate reduction is obtained. By
moving them into H.266 (VTM-5.0), the mean dB-rate reduction reaches -1.9%.
- Abstract(参考訳): 本稿では,ブロックベース画像とビデオコーデックにおけるイントラ予測のためのニューラルネットワークの反復学習について述べる。
まず、ニューラルネットワークは、イメージのコーデックパーティショニングから発生するブロック上でトレーニングされ、それぞれがそのコンテキストとペアリングされる。
そして、反復的に、前回のイテレーションでトレーニングされたニューラルネットワークを含むコーデックを介して、画像の分割からブロックを収集し、それぞれのコンテキストをペアにし、ニューラルネットワークを新しいペアで再トレーニングする。
このトレーニングにより、ニューラルネットワークは、初期コーデックにあるものと区別されるイントラ予測関数を学習し、レートゆがみの観点からコーデックを増加させることができる。
さらに、反復プロセスにより、ニューラルネットワークトレーニングに不可欠なトレーニングデータクリーニングの設計が可能になる。
繰り返し訓練されたニューラルネットワークをH.265(HM-16.15)に挿入すると、平均dBレートの4.2%の低下が得られる。
H.266 (VTM-5.0) に移動させることで、平均dBレートの減少率は-1.9%に達する。
関連論文リスト
- Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A Deep Learning-based in silico Framework for Optimization on Retinal
Prosthetic Stimulation [3.870538485112487]
シリコン網膜インプラントモデルパルス2パーセプションによってシミュレーションされた知覚を最適化するニューラルネットワークベースのフレームワークを提案する。
パイプラインは、トレーニング可能なエンコーダ、トレーニング済み網膜インプラントモデル、トレーニング済み評価器から構成される。
論文 参考訳(メタデータ) (2023-02-07T16:32:05Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Training Binary Neural Networks through Learning with Noisy Supervision [76.26677550127656]
本稿では,ニューラルネットワーク上の二項化操作を学習の観点から定式化する。
ベンチマークデータセットの実験結果から,提案手法がベースラインよりも一貫した改善を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-10-10T01:59:39Z) - Accelerated MRI with Un-trained Neural Networks [29.346778609548995]
トレーニングなしニューラルネットワークを用いた高速化MRIにおける再構成問題に対処する。
本稿では,Deep Decoderのバリエーションに基づいて,高度に最適化された未学習リカバリ手法を提案する。
トレーニングされていないアルゴリズムはベースライントレーニングされたニューラルネットワークと同じような性能を達成するが、最先端トレーニングされたネットワークはトレーニングされていないニューラルネットワークよりも優れる。
論文 参考訳(メタデータ) (2020-07-06T00:01:25Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Backprojection for Training Feedforward Neural Networks in the Input and
Feature Spaces [12.323996999894002]
本稿では,バックプロパゲーションよりもかなり高速なフィードフォワードニューラルネットワークのトレーニングアルゴリズムを提案する。
提案アルゴリズムは、それぞれバックプロジェクションとカーネルバックプロジェクションと呼ばれる入力空間と特徴空間の両方に利用できる。
論文 参考訳(メタデータ) (2020-04-05T20:53:11Z) - A Deep Conditioning Treatment of Neural Networks [37.192369308257504]
本研究では,入力データの特定のカーネル行列の条件付けを改善することにより,ニューラルネットワークのトレーニング性を向上させることを示す。
ニューラルネットワークの上位層のみのトレーニングと、ニューラルネットワークのタンジェントカーネルを通じてすべてのレイヤをトレーニングするための学習を行うためのバージョンを提供しています。
論文 参考訳(メタデータ) (2020-02-04T20:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。