論文の概要: Do Neural Networks for Segmentation Understand Insideness?
- arxiv url: http://arxiv.org/abs/2201.10664v1
- Date: Tue, 25 Jan 2022 22:54:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-27 23:27:58.773816
- Title: Do Neural Networks for Segmentation Understand Insideness?
- Title(参考訳): セグメンテーションのためのニューラルネットワークは内部を理解するか?
- Authors: Kimberly Villalobos, Vilim \v{S}tih, Amineh Ahmadinejad, Shobhita
Sundaram, Jamell Dozier, Andrew Francl, Frederico Azevedo, Tomotake Sasaki,
Xavier Boix
- Abstract要約: 内部性問題は、領域内外にあるピクセルを決定するイメージセグメンテーションの側面である。
ディープニューラルネットワークはセグメンテーションベンチマークで優れているが、内部問題を解決できるかどうかは不明だ。
- 参考スコア(独自算出の注目度): 2.418142116220103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The insideness problem is an aspect of image segmentation that consists of
determining which pixels are inside and outside a region. Deep Neural Networks
(DNNs) excel in segmentation benchmarks, but it is unclear if they have the
ability to solve the insideness problem as it requires evaluating long-range
spatial dependencies. In this paper, the insideness problem is analysed in
isolation, without texture or semantic cues, such that other aspects of
segmentation do not interfere in the analysis. We demonstrate that DNNs for
segmentation with few units have sufficient complexity to solve insideness for
any curve. Yet, such DNNs have severe problems with learning general solutions.
Only recurrent networks trained with small images learn solutions that
generalize well to almost any curve. Recurrent networks can decompose the
evaluation of long-range dependencies into a sequence of local operations, and
learning with small images alleviates the common difficulties of training
recurrent networks with a large number of unrolling steps.
- Abstract(参考訳): 内部性問題(insideness problem)は、領域内外の画素を決定する画像分割の側面である。
ディープニューラルネットワーク(DNN)はセグメンテーションベンチマークで優れているが、長距離空間依存の評価を必要とするため、内部問題を解く能力があるかどうかは不明である。
本稿では,セグメンテーションの他の側面が分析に支障を来さないように,テクスチャや意味的手がかりを伴わずに,内部性問題を分離して解析する。
最小単位のセグメンテーションに対するdnnは任意の曲線の内部性を解くのに十分な複雑さを持つことを示す。
しかし、そのようなDNNは一般解の学習に深刻な問題を抱えている。
小さな画像で訓練されたリカレントネットワークだけが、ほぼあらゆる曲線にうまく一般化した解を学習する。
リカレントネットワークは、長距離依存性の評価を一連のローカル操作に分解し、小さな画像で学習することで、多数のアンローリングステップでリカレントネットワークをトレーニングする一般的な困難を軽減できる。
関連論文リスト
- A Domain Decomposition-Based CNN-DNN Architecture for Model Parallel Training Applied to Image Recognition Problems [0.0]
モデル並列トレーニング戦略を自然にサポートする新しいCNN-DNNアーキテクチャを提案する。
提案手法は,グローバルモデルと比較して,必要なトレーニング時間を著しく短縮することができる。
その結果,提案手法は,基礎となる分類問題の精度向上にも有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-13T18:06:59Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Deep Multi-Scale U-Net Architecture and Noise-Robust Training Strategies
for Histopathological Image Segmentation [6.236433671063744]
本稿では,U-Netエンコーダの各畳み込みモジュールにマルチスケールの特徴マップを明示的に付加し,ヒストロジー画像のセグメンテーションを改善することを提案する。
乳がんリンパ節のプライベートデータセットを用いた実験では, 提案した2つの拡張に基づいて, U-Netベースラインを大幅に改善した。
論文 参考訳(メタデータ) (2022-05-03T21:00:44Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning to Detect Critical Nodes in Sparse Graphs via Feature Importance Awareness [53.351863569314794]
クリティカルノード問題(CNP)は、削除が残余ネットワークのペア接続性を最大に低下させるネットワークから臨界ノードの集合を見つけることを目的としている。
本研究は,ノード表現のための特徴重要度対応グラフアテンションネットワークを提案する。
ダブルディープQネットワークと組み合わせて、初めてCNPを解くエンドツーエンドのアルゴリズムを作成する。
論文 参考訳(メタデータ) (2021-12-03T14:23:05Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - DeepSplit: Scalable Verification of Deep Neural Networks via Operator
Splitting [70.62923754433461]
入力摂動に対するディープニューラルネットワークの最悪の性能を分析することは、大規模な非最適化問題の解決につながる。
解析解を持つ小さなサブプロブレムに分割することで,問題の凸緩和を直接高精度に解ける新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-16T20:43:49Z) - ABCNet: Attentive Bilateral Contextual Network for Efficient Semantic
Segmentation of Fine-Resolution Remote Sensing Images [5.753245638190626]
リモートセンシング画像のセマンティックセグメンテーションは、精密農業、環境保護、経済評価において重要な役割を担っている。
空間分解能の増加によって引き起こされる複雑な情報のため、最先端のディープラーニングアルゴリズムは通常、セグメンテーションに複雑なネットワークアーキテクチャを使用する。
本稿では,2枝の畳み込みニューラルネットワーク(CNN)であるABCNetを提案する。
論文 参考訳(メタデータ) (2021-02-04T10:43:08Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Learning Non-Unique Segmentation with Reward-Penalty Dice Loss [7.481722938212153]
我々は、ディープ畳み込みニューラルネットワーク(DCNN)の最適化目的として、報奨金損失(RPDL)関数を提案する。
RPDLは、DCNNが共通領域を拡大し、外部領域をペナルティ化することで、非共通セグメンテーションの学習を支援することができる。
実験の結果、RPDLはDCNNモデルの性能を最大18.4%向上させることがわかった。
論文 参考訳(メタデータ) (2020-09-23T07:59:49Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。