論文の概要: Convolutional Mean: A Simple Convolutional Neural Network for Illuminant
Estimation
- arxiv url: http://arxiv.org/abs/2001.04911v1
- Date: Tue, 14 Jan 2020 17:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 12:52:40.101114
- Title: Convolutional Mean: A Simple Convolutional Neural Network for Illuminant
Estimation
- Title(参考訳): 畳み込み平均:イルミナント推定のための単純な畳み込みニューラルネットワーク
- Authors: Han Gong
- Abstract要約: 畳み込み平均 (CM) は単純かつ高速な畳み込みニューラルネットワークである。
提案手法は,小さなニューラルネットワークモデル(1.1Kパラメータ)と48×32サムネイル入力画像のみを必要とする。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Convolutional Mean (CM) - a simple and fast convolutional neural
network for illuminant estimation. Our proposed method only requires a small
neural network model (1.1K parameters) and a 48 x 32 thumbnail input image. Our
unoptimized Python implementation takes 1 ms/image, which is arguably 3-3750x
faster than the current leading solutions with similar accuracy. Using two
public datasets, we show that our proposed light-weight method offers accuracy
comparable to the current leading methods' (which consist of thousands/millions
of parameters) across several measures.
- Abstract(参考訳): 本稿では,簡易かつ高速な畳み込みニューラルネットワークである畳み込み平均(cm)を提案する。
提案手法は,小さなニューラルネットワークモデル(1.1Kパラメータ)と48×32サムネイル入力画像のみを必要とする。
最適化されていないpythonの実装には1ミリ秒/イメージが必要です。
2つの公開データセットを用いて,提案手法は複数の測定値にまたがる現在の先行手法(数千/数百万のパラメータからなる)に匹敵する精度を示す。
関連論文リスト
- Direct Zernike Coefficient Prediction from Point Spread Functions and Extended Images using Deep Learning [36.136619420474766]
既存の適応光学系は、収差を補正し、画像を改善するために反復探索アルゴリズムに依存している。
本研究は、光収差を特徴付ける畳み込みニューラルネットワークの応用を実証する。
論文 参考訳(メタデータ) (2024-04-23T17:03:53Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Implicit Optimizer for Diffeomorphic Image Registration [3.1970342304563037]
本稿では,Diffomorphic Image Registration (IDIR) の高速かつ正確なインプシットを提案する。
提案手法を2つの大規模MR脳スキャンデータセットで評価し,提案手法が従来の画像登録手法よりも高速かつ優れた登録結果を提供することを示した。
論文 参考訳(メタデータ) (2022-02-25T05:04:29Z) - Meta-Learning Sparse Implicit Neural Representations [69.15490627853629]
入射神経表現は、一般的な信号を表す新しい道である。
現在のアプローチは、多数の信号やデータセットに対してスケールすることが難しい。
メタ学習型スパースニューラル表現は,高密度メタ学習モデルよりもはるかに少ない損失が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T18:02:53Z) - Multi-scale Neural ODEs for 3D Medical Image Registration [7.715565365558909]
医用画像解析において画像登録は重要な役割を担っている。
ラーニング・トゥ・マップのような深層学習手法はより高速であるが、大きな動きを扱うための精度を改善するために反復的あるいは粗大なアプローチが必要である。
本研究では,マルチスケールのニューラルODEモデルを用いて登録を学習することを提案する。
論文 参考訳(メタデータ) (2021-06-16T00:26:53Z) - ACORN: Adaptive Coordinate Networks for Neural Scene Representation [40.04760307540698]
現在の神経表現は、数十万以上のポリゴンを持つメガピクセルまたは3Dシーン以上の解像度で画像を正確に表現できません。
トレーニングや推論中にリソースを適応的に割り当てる新しいハイブリッド暗黙的ネットワークアーキテクチャとトレーニング戦略を紹介します。
ギガピクセル画像を40dB近いピーク信号対雑音比に収まる最初の実験を実証します。
論文 参考訳(メタデータ) (2021-05-06T16:21:38Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Displacement-Invariant Cost Computation for Efficient Stereo Matching [122.94051630000934]
ディープラーニング手法は、前例のない不一致の精度を得ることによって、ステレオマッチングのリーダーボードを支配してきた。
しかし、その推測時間は一般的に540p画像の秒数で遅い。
本研究では,4次元特徴量を必要としないEmphdisplacement-invariant cost moduleを提案する。
論文 参考訳(メタデータ) (2020-12-01T23:58:16Z) - Human Body Model Fitting by Learned Gradient Descent [48.79414884222403]
画像に3次元の人体形状を適合させる新しいアルゴリズムを提案する。
このアルゴリズムは高速(約120ms収束)で、データセットに頑健であり、公開評価データセットの最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2020-08-19T14:26:47Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。