論文の概要: Systematically designing better instance counting models on cell images
with Neural Arithmetic Logic Units
- arxiv url: http://arxiv.org/abs/2004.06674v2
- Date: Mon, 15 Jun 2020 07:44:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 08:48:33.779806
- Title: Systematically designing better instance counting models on cell images
with Neural Arithmetic Logic Units
- Title(参考訳): ニューラル算術論理ユニットを用いたセルイメージ上のより良いインスタンスカウントモデルの設計
- Authors: Ashish Rana, Taranveer Singh, Harpreet Singh, Neeraj Kumar and
Prashant Singh Rana
- Abstract要約: 我々は、細胞カウントのためのより良い一般化システムを構築することを目指している。
数値バイアスのある単位は、数値を学習し、より優れた一般化結果を得るのに役立ちます。
以上の結果から, モデルが数値量学習に役立ち, より優れた一般化結果が得られることが確認された。
- 参考スコア(独自算出の注目度): 11.864159170745893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The big problem for neural network models which are trained to count
instances is that whenever test range goes high training range generalization
error increases i.e. they are not good generalizers outside training range.
Consider the case of automating cell counting process where more dense images
with higher cell counts are commonly encountered as compared to images used in
training data. By making better predictions for higher ranges of cell count we
are aiming to create better generalization systems for cell counting. With
architecture proposal of neural arithmetic logic units (NALU) for arithmetic
operations, task of counting has become feasible for higher numeric ranges
which were not included in training data with better accuracy. As a part of our
study we used these units and different other activation functions for learning
cell counting task with two different architectures namely Fully Convolutional
Regression Network and U-Net. These numerically biased units are added in the
form of residual concatenated layers to original architectures and a
comparative experimental study is done with these newly proposed changes. This
comparative study is described in terms of optimizing regression loss problem
from these models trained with extensive data augmentation techniques. We were
able to achieve better results in our experiments of cell counting tasks with
introduction of these numerically biased units to already existing
architectures in the form of residual layer concatenation connections. Our
results confirm that above stated numerically biased units does help models to
learn numeric quantities for better generalization results.
- Abstract(参考訳): インスタンスをカウントするようにトレーニングされるニューラルネットワークモデルにとって大きな問題は、テスト範囲が高いトレーニング範囲の一般化エラーが増加すると、トレーニング範囲外の一般化が不十分になることだ。
細胞数の高い高密度画像が、トレーニングデータで使用される画像と比較して一般的に遭遇するセルカウントの自動化プロセスを考える。
より高い範囲の細胞数を予測することによって、我々は細胞数により良い一般化システムを構築することを目指している。
演算演算のためのニューラル算術論理ユニット(nalu)のアーキテクチャの提案により、精度良くトレーニングデータに含まれない高数値範囲ではカウントのタスクが実現可能となった。
本研究の一環として,本研究では,セル計数タスクを完全畳み込み回帰ネットワークとu-netという2つの異なるアーキテクチャで学習するために,これらのユニットと他の活性化関数を用いた。
これらの数値的偏りの単位は、元のアーキテクチャに残留結合層の形で付加され、これらの新しく提案された変化に対して比較実験が行われる。
この比較研究は、広範なデータ拡張手法で訓練されたこれらのモデルからの回帰損失問題の最適化の観点から記述される。
我々はこれらの数値バイアスの単位を既存のアーキテクチャに導入し、残層結合接続の形で、セルカウントタスクのより優れた結果を得ることができた。
以上の結果から, モデルが数値量学習に役立ち, より優れた一般化結果が得られることが確認された。
関連論文リスト
- A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Target Variable Engineering [0.0]
数値的対象を予測するために訓練された回帰モデルの予測性能と、2項化対象を予測するために訓練された分類器を比較した。
回帰は最適性能に収束するためには、はるかに多くの計算作業を必要とする。
論文 参考訳(メタデータ) (2023-10-13T23:12:21Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - A Tutorial on the Mathematical Model of Single Cell Variational
Inference [0.0]
本チュートリアルではsingle cell variational inference(scvi)の数学的モデルを紹介する。
初心者向けに、この分野のさらなる研究者を奨励するために、多くの推論の詳細とともに、シンプルで直感的な方法で書かれた。
論文 参考訳(メタデータ) (2021-01-03T16:02:36Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Neural Execution Engines: Learning to Execute Subroutines [29.036699193820215]
本稿では, ソート, 最短経路, 最小スパンニング木などの共通アルゴリズムを構成する数値サブルーチンのレベルでの一般化問題について検討する。
データを一般化するために、バイナリ表現で数値を符号化すると、加算や乗算のような下流のタスクで訓練されたリッチな構造で埋め込みされることを示す。
論文 参考訳(メタデータ) (2020-06-15T01:51:37Z) - iNALU: Improved Neural Arithmetic Logic Unit [2.331160520377439]
最近提案されたNeural Arithmetic Logic Unit (NALU)は、ネットワークのユニットによって数学的関係を明確に表現し、和、減算、乗算などの操作を学ぶことができる新しいニューラルネットワークである。
本稿では,本モデルが安定性の問題を解き,算術精度と収束性により元のNALUモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T10:37:22Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。