論文の概要、ライセンス

# (参考訳) トポロジカル優先による画像分割 [全文訳有]

Image Segmentation with Topological Priors ( http://arxiv.org/abs/2205.06197v1 )

ライセンス: CC BY 4.0
Shakir Showkat Sofi, Nadezhda Alsahanova(参考訳) トポロジカルな前提によるセグメンテーションタスクの解法は、微細な構造における誤りを少なくすることを示した。 本研究では,深層ニューラルネットワークトレーニングの前後でトポロジカルな事前処理を行う。 従来のUNetモデルにトポロジ的情報を組み込むことにより, トポロジ的正確性に直接関係するベッチ数誤差と, 様々な精度の指標を単純なセグメンテーションで比較したところ, トポロジ的情報の導入が有意に向上していることが判明した。 我々はISBI EMセグメンテーションデータセットの実験を行った。

Solving segmentation tasks with topological priors proved to make fewer errors in fine-scale structures. In this work, we use topological priors both before and during the deep neural network training procedure. We compared the results of the two approaches with simple segmentation on various accuracy metrics and the Betti number error, which is directly related to topological correctness, and discovered that incorporating topological information into the classical UNet model performed significantly better. We conducted experiments on the ISBI EM segmentation dataset.
公開日: Thu, 12 May 2022 16:36:21 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Image Segmentation with Topological Priors トポロジカル優先による画像分割 0.79
Shakir Showkat Sofi Shakir–Showkat Sofi 0.41
CDISE, Nadezhda Alsahanova CDISE Nadezhda Alsahanova 0.33
CDISE, Skolkovo Institute of Science and Technology CDISE skolkovo institute of science and technology(英語) 0.47
Skolkovo Institute of Science and Technology skolkovo institute of science and technology(英語) 0.70
Moscow, Russia Shakir.Sofi@skoltech.ru モスクワ、ロシア Shakir.Sofi@skoltech .ru 0.54
Moscow, Russia nadezhda.alsahanova@ skoltech.ru モスクワ、ロシア nadezhda.alsahanova@ skoltech.ru 0.54
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 7 9 1 6 0 1 v 7 9 1 6 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Solving segmentation tasks with topological priors proved to make fewer errors in fine-scale structures. 抽象 - トポロジカルな先行したセグメンテーションタスクを解くことで、微細な構造においてエラーが少なくなる。 0.47
In this work, we use topological priors both before and during the deep neural network training procedure. 本研究では,深層ニューラルネットワークトレーニングの前後でトポロジカルな事前処理を行う。 0.65
We compared the results of the two approaches with simple segmentation on various accuracy metrics and the Betti number error, which is directly related to topological correctness, and discovered that incorporating topological information into the classical UNet model performed significantly better. 従来のUNetモデルにトポロジ的情報を組み込むことにより, トポロジ的正確性に直接関係するベッチ数誤差と, 様々な精度の指標を単純なセグメンテーションで比較したところ, トポロジ的情報の導入が有意に向上していることが判明した。 0.69
We conducted experiments on the ISBI EM segmentation dataset. 我々はISBI EMセグメンテーションデータセットの実験を行った。 0.76
Index Terms—Segmentation, Topological loss, Persistent ho- 索引項-セグメンテーション、トポロジカル損失、永続ho- 0.69
mology, UNet. mology, UNet 0.30
I. INTRODUCTION I. イントロダクション 0.64
The important task in computer vision is to know the location and shape of objects in the image or in general, which pixel belongs to which object. 重要なことは コンピュータビジョンにおけるタスクは、画像内のオブジェクトの位置と形、あるいはどのピクセルがどのオブジェクトに属するかを知ることである。 0.73
This task is accomplished through image segmentation, which involves assigning labels to all input image pixels. このタスクは、すべての入力画像ピクセルにラベルを割り当てるイメージセグメンテーションによって達成される。 0.81
The use of an end-to-end trained deep network to segment images aids in achieving acceptable perpixel accuracy. 画像のセグメント化にエンドツーエンドの訓練されたディープネットワークを使用することで、許容可能なピクセル精度を実現することができる。 0.48
However, in applications involving fine-scale structures, such as thin connections in neuron membranes and vessels, satisfactory accuracy is insufficient because it could lead to catastrophic mistakes. しかし、ニューロン膜や血管の薄い接続などの微細な構造を含むアプリケーションでは、破壊的ミスにつながる可能性があるため、精度が不十分である。 0.65
A segmentation error in the thin cell membrane, for example, could result in the union of two distinct cells. 例えば、薄い細胞膜のセグメンテーションエラーは、2つの異なる細胞の結合をもたらす可能性がある。 0.72
Thus, segmentation algorithms can still make mistakes on fine-scale structures. したがって、セグメンテーションアルゴリズムはいまだに微細な構造で誤りを犯すことがある。 0.57
To solve this problem, we incorporate topological prior knowledge into the segmentation model. この問題を解決するために, トポロジカル事前知識をセグメンテーションモデルに組み込む。 0.69
In this work, we investigate two approaches to introducing topological priors. 本研究では,位相的優先順位を導入するための2つのアプローチについて検討する。 0.46
The first is to add topological loss to crossentropy loss, which is commonly used in segmentation tasks. ひとつは、セグメンテーションタスクで一般的に使用されるクロスエントロピーロスにトポロジカルロスを追加することだ。 0.53
Topological loss measures a difference between persistence diagrams for true and predicted masks. 位相損失は、真マスクと予測マスクの持続図の違いを測定する。 0.61
The second method is to use topological image processing prior to training the neural network. 第2の方法は、ニューラルネットワークをトレーニングする前にトポロジカル画像処理を使用することである。
訳抜け防止モード: 第二の方法は ニューラルネットワークのトレーニングに先立って トポロジカルな画像処理を使います
0.83
Both strategies improve segmentation performance without sacrificing pixel-wise accuracy. どちらの戦略もピクセル単位の精度を犠牲にすることなくセグメンテーション性能を向上させる。 0.45
In section II we present a short review of existing solutions for the implementation of topological priors in segmentation tasks. 第2節では,セグメンテーションタスクにおけるトポロジカル事前の実装に関する既存のソリューションについて,簡単なレビューを行う。 0.57
Then in section III we present a short theoretical basis of persistence homology inIII-A, topological loss and its differentiability is discussed in III-B and the overview of topological input image processing is presented in III-C. 第III節では,III-Aにおける持続的ホモロジーの短い理論的基礎を示すとともに,III-Bでは位相的損失とその微分可能性について論じ,III-Cでは位相的入力画像処理の概要を示す。
訳抜け防止モード: 第III節では、永続ホモロジーの短い理論的基礎をIII - A, 位相損失とその微分可能性はIII - Bで議論される そして、トポロジカル入力画像処理の概要をIII-Cで示す。
0.70
Finally, we present details of the training process and result of experiments in section IV. 最後に,訓練過程の詳細と実験結果について,第4節で述べる。 0.77
II. RELATED WORK Topologically aware networks have already shown significant improvement in results, especially for segmentation and classification problems. II。 関連作業 トポロジカルに認識されたネットワークは、特にセグメンテーションや分類問題において、結果が大幅に改善されている。 0.65
One such earlier attempt was in [1], which uses topological awareness in the loss function based on the response of selected filters from a pre-trained VGG19 network. この試みは、事前訓練されたVGG19ネットワークから選択されたフィルタの応答に基づいて、損失関数の位相的認識を利用する[1]で行われた。 0.70
It was successful in capturing some topological features, such as the connectedness of small components. 小型部品の連結性などのトポロジカルな特徴を捉えることに成功している。 0.69
It constructs the topologically aware losses, but it is a bit difficult to generalize for complex settings. 位相的に認識される損失を構成するが、複雑な設定を一般化するのは少々難しい。 0.69
The interpretation and relevance of these captured features were even more difficult. これらの特徴の解釈と関連性は、さらに難しかった。 0.74
A similar scheme was proposed by researchers in [2], where the output of the second network was used to define a loss function for identifying global structural features, to enforce anatomical constraints. 同様のスキームが[2]の研究者によって提案され、第2のネットワークの出力は、グローバルな構造的特徴を特定するための損失関数を定義し、解剖学的制約を強制するために用いられた。 0.67
Some researchers, like in [3], uses topological regularizers for classification problems with considerations of stability of connected components within imposed topological constraints on the shape of classification boundary. 一部の研究者は、[3]のように、分類境界の形状に課せられるトポロジカル制約の中で連結成分の安定性を考慮した分類問題にトポロジカル正規化器を用いる。 0.76
Different ideas have been proposed so far for capturing fine details, some based on deconvolution and upsampling, some using Persistent Homology (PH), and some have used topological processing of inputs for simple geometries for unsupervised tasks like in [4] before applying the Chan-Vese, ISODATA, Edge-detections etc for segmenting the processed image. デコンボリューションやアップサンプリングに基づくもの、永続ホモロジー(ph)を用いたもの、[4]のような教師なしタスクのための単純なジオメトリーのための入力のトポロジカルな処理を用いたもの、処理された画像のセグメンテーションにchan-vese、isodata、エッジ検出などを適用する前に[4]のような教師なしタスクを使用するものもある。
訳抜け防止モード: 詳細を把握するための様々なアイデアが提案されている。 デコンボリューションとアップサンプリングに基づくもの、永続ホモロジー(PH)を用いるもの 入力のトポロジカルな処理を 単純なジオメトリーに使っています Chan - Vese, ISODATA, Edge - 処理されたイメージをセグメント化するための検出などを適用する。
0.77
For further see [5]; [6]; [7]; [8], etc. 詳しくは、[5]; [6]; [7]; [8]などを参照してください。 0.72
Most of the methods are problem-specific. ほとんどの方法は問題に特化している。 0.62
Our method is closest to one proposed in [9], which also poses topological priors in the training phase. 本手法は, [9] で提案されている手法に最も近い。
訳抜け防止モード: 我々の手法は[9]で提案された手法に最も近い。 トレーニングフェーズでは トポロジカルな先駆者でもある。
0.59
Apart from that, our scheme looks at different possible stages of feeding topological priors with their effectiveness and efficiency for supervised learning task. それとは別に,本手法では,教師付き学習タスクに対する効果と効率性について,位相的事前の摂食の異なる段階を考察する。
訳抜け防止モード: それとは別に 我々の計画では 教師付き学習タスクにおけるトポロジカル事前学習の有効性と効率性について
0.66
III. THEORY We know from recent years that the volume of data is increasing exponentially, but it is also complex, noisy, multidimensional, and sometimes incomplete, necessitating the development of efficient and robust data analysis methods. III。 理論 近年, データの量は指数関数的に増大しているが, 複雑でノイズが多く, 多次元であり, 時には不完全であり, 効率的で堅牢なデータ解析手法の開発を必要としている。 0.61
The existing methods, which are based on statistics, machine learning, uncertainty quantification, and so on, work well, but when it comes to making sense of vast, multidimensional, and noisy data, the analysis process becomes more challenging. 統計、機械学習、不確実性定量化などに基づく既存の手法は、うまく機能するが、広大で多次元でノイズの多いデータを理解するという意味では、分析プロセスはより困難になる。 0.60
However, developments in modern mathematics have yielded a wealth of insights into the study and application of data in an entirely new set of directions. しかし、現代の数学の発展は、データの研究と応用について、全く新しい方向への深い洞察をもたらした。 0.65
Topological Data Analysis (TDA) is one such technique that combines computational トポロジカルデータ解析(TDA)は計算を組み合わせた手法である 0.76
英語(論文から抽出)日本語訳スコア
geometry, algebraic topology, data analysis, statistics, etc. 幾何学、代数的トポロジー、データ分析、統計など。 0.71
TDA is more involved in the geometric side of data, like computing topological features of data. tdaはデータのトポロジ的特徴の計算など、データの幾何学的側面に深く関わっている。 0.70
Furthermore, the prime focus is on Persistent Homology (PH). さらに、主要な焦点は Persistent Homology (PH) である。 0.79
We provide a brief overview of PH here, but the reader is directed to [10]; [11] for a more in-depth discussion. ここでは、phの概要を簡単に説明するが、読者は[10]; [11]に向けられ、より詳細な議論が行われる。 0.71
A. Persistent homology and Persistent diagrams a.永続的ホモロジーと永続的ダイアグラム 0.53
A persistent homology is an important tool of algebraic topological used in TDA to analyze qualitative data features across multiple scales. 永続ホモロジーは、複数のスケールにわたる定性的データ特徴を分析するためにTDAで使用される代数的トポロジーの重要なツールである。 0.68
PH is robust, dimension and coordinate independent, and provides compact summaries of the underlying data. phはロバストで次元と座標独立であり、基礎となるデータのコンパクトな要約を提供する。 0.66
To compute PH, we need two things: a simplicial complex K and the filtration F defined on K. A simplicial complex is a generalisation of a graph that includes 0-simplices (nodes), 1-simplices (edges), 2-simplices (triangles), and so on up to k-simplices, where k ∈ N denotes the dimensionality of the complex. 単純複素数 K と K 上で定義されるフィルター F は、0-単純数 (nodes)、 1-単純数 (edges)、 2-単純数 (triangles)、 k-単純数 k ∈ N を含むグラフの一般化である。
訳抜け防止モード: phを計算します 単純複体 k と k 上で定義される濾過 f である。 単純複体(simplicial complex)は、0-簡約(ノード)を含むグラフの一般化である。 1-簡約(辺)、2-簡約(三角形)など、最大k-簡約 ここで k ∈ n は複素数の次元性を表す。
0.74
It is formally a space that is built from a union of these nodes, edges, triangles, and/or higher-dimensional polytopes [11]. 正式にはこれらのノード、エッジ、三角形、および/または高次元のポリトープ [11] の結合から構築される空間である。 0.75
A simplicial complex K is closed under inclusion, which means that if σ(cid:48) ⊆ σ ∈ K then σ(cid:48) ∈ K. A nested sequence of K0 ⊆ K1 ⊆ . . . ⊆ KN = K of subcomplexes of K is then defined as the filtration F on K, please refer to [4] for details. simplicial complex K は包含の下で閉じているので、σ(cid:48) を σ(cid:48) ∈ K とすると、σ(cid:48) ∈ K が成り立つ。
訳抜け防止モード: simplicial complex K は包含の下で閉じているので、σ(cid:48 ) = σ ∈ K ならば σ(cid:48 ) ∈ K である。 このとき、K の部分複素体の s KN = K は K 上のフィルター F として定義される。 詳細は[4]を参照してください。
0.84
Due to the grid-like structure of images, it became easy to use TDA techniques. グリッド状の画像構造のため、TDA技術を使うことが容易になった。 0.83
Considering an image I of size M × N, the simplicial complex can be obtained from pixel configurations of this image. 大きさM×Nの画像Iを考えると、この画像の画素構成から単純コンプレックスを得ることができる。 0.71
Technically, the simplicial complex (1-dim simplicial) is defined by connecting each pixel to 8 neighbouring pixels. 技術的には、単純複体 (1-dim simplicial) は各ピクセルを隣接する8つのピクセルに接続することによって定義される。 0.62
After that, by filling the triangular shapes of this complex, a 2-dimensional simplicial complex can be obtained. その後、この錯体の三角形形状を満たすことにより、2次元の単純複体を得ることができる。 0.78
Assuming that images have a uniform grid structure, we may prefer the cubical complex1 画像が一様格子構造を持つと仮定すると、立方体複素数 1 が好まれる。 0.62
PH measures lifetimes of topological features through the birth and death of holes across the filtration [4]. phは濾過中の孔の生死を通じてトポロジカルな特徴の寿命を測定する [4]。 0.69
For example, if any hole persists for long consecutive values of the varying parameter(e g , diameter τ of data-point), then that depicts an important object in an image, and small persistent components are noise. 例えば、ある穴が、異なるパラメータ(例えば、データポイントの直径τ)の長い連続した値に対して持続する場合、画像内の重要なオブジェクトを描写し、小さな永続的なコンポーネントはノイズである。 0.85
For each complex Ki, we compute its topology 2, the rank of which is kth Betti using Homology group Hn number (βk), represents a k-dimensional hole. 各複素 K に対して、その位相 2 を計算し、そのランクはホモロジー群 Hn 数 (βk) を用いて k 次元の穴を表す Betti である。 0.74
β0 is the number of connected components, β1 is the number of loops, β2 is the number of hallow-cavities, and so on [6]. β0 は連結成分の数、β1 はループの数、β2 はハローキャビティの数などである。
訳抜け防止モード: β0 は連結成分の数である。 β1はループの数です。 β2は、[6]などハロウィンの空洞の数である。
0.76
In the case of image data sets, however, we only go up to 1-dimensional holes. しかし、画像データセットの場合、1次元の穴しか持たない。 0.57
There is a pretty good method for visualising and interpreting births and deaths of these holes using Persistent Diagram (PD). Persistent Diagram (PD) を用いて、これらの穴の誕生と死を可視化し、解釈する良い方法があります。 0.72
PD is simply a multiset that contains a point (b, d) for every hole that was born at data point diameter τ = b and died at data point diameter τ = d. PD は単に、データポイント直径 τ = b で生まれ、データポイント直径 τ = d で死んだすべてのホールの点 (b, d) を含む多重集合である。 0.80
It is a plot between the birth and death of these holes for different values of data point diameter τ. データポイント直径τの異なる値に対するこれらの穴の誕生と死の間のプロットである。 0.84
1Space formed by the union of vertex, edges, squares, cubes, and so on. 頂点、縁、正方形、立方形の結合によって形成された1空間。 0.78
2We don’t need all details of computations of Homology groups, as it is 2 ホモロジー群の計算に関するすべての詳細は必要ありません。 0.59
already implemented in Gudhi Library 既にgudhiライブラリに実装されている 0.57
B. Topological Loss and Differentiability B. 位相損失と微分可能性 0.55
It has been demonstrated that training a deep neural network, typically a TopoNet, according to the methodology proposed in [9] can achieve both per-pixel accuracy and topological correctness. 9]で提案されている手法によれば、ディープニューラルネットワーク(通常はTopoNet)のトレーニングは、ピクセルごとの精度とトポロジカルな正確性の両方を達成することができる。 0.65
Lets likewise define f , the likelihood map predicted by the network, and g the ground truth. 同様に、ネットワークによって予測される可能性写像 f と基底真理を g と定義する。 0.78
The overall loss function can be expressed in mathematical terms as the weighted sum of the cross-entropy loss and the topological loss: 全体の損失関数は、交叉エントロピー損失と位相的損失の重み付き和として数学的に表現することができる。 0.73
L(f , g) = LBCE(f , g) + λ · Ltopo(f , g) L(f , g) = LBCE(f , g) + λ · Ltopo(f , g) 0.42
(1) A binary segmentation task is assumed. (1) バイナリセグメンテーションタスクが仮定される。 0.53
Consequently, there is a single likelihood function f, whose value ranges from 0 to 1. したがって、値が 0 から 1 に変化する1つの確率関数 f が存在する。 0.80
We use information from persistent diagrams of f and g, D(f ), D(g), to formalise topological loss, which measures the topological similarity between the likelihood f and the ground truth g. f と g, D(f ), D(g) の永続図形からの情報を用いて位相的損失を定式化し、これは確率 f と基底真理 g の間の位相的類似度を測定する。 0.69
Mathematically we can write topological loss as: 数学的には、トポロジカルな損失を次のように書くことができる。 0.40
Ltopo(f , g) = (cid:88)(p,p(cid:48) )∈D(f ),D(g)(cid:104)(birt h(p) − birth(p Ltopo(f , g) = (cid:88)(p,p(cid:48) )・D(f ),D(g)(cid:104)( birth(p) − birth(p) 0.48
(cid:48) + (death(p) − death(p (cid:48) + (死(p) − death(p) 0.41
))2+ (cid:48) ))2+ (cid:48) 0.43
))2(cid:105)(2) ))2(cid:105)(2) 0.49
Where p and p(cid:48) are the points from persistence diagrams D(f ), D(g) sorted by their ’lifetimes’: p と p(cid:48) が持続性図 D(f ), D(g) の点であるときの寿命は次の通りである。 0.79
death(p) - birth(p) 死(p)-誕生(p) 0.65
So, in equation (2), this loss measures the difference between persistent diagrams. したがって、方程式 (2) において、この損失は永続図形の差を測る。 0.71
It is dependent on the critical thresholds at which topological changes take place, such as the birth and death times of the various dots depicted in the diagram D(f ) [9]. これは、図D(f )[9]に示す様々な点の生死時間など、トポロジ的変化が起こる臨界しきい値に依存する。
訳抜け防止モード: それは、トポロジカルな変化が起こる臨界しきい値に依存する。 例えば、図D(f ) [ 9 ]で示されている様々な点の生死時間などです。
0.64
And if f is differentiable, these vital thresholds are critical points where the derivative of f equals zero. そして f が微分可能であれば、これらの重要なしきい値は f の微分が 0 に等しい臨界点である。 0.62
As a consequence of this, it is possible to represent f as a piecewise-linear function that has a gradient equal to zero on critical points. この結果、f を臨界点上で 0 に等しい勾配を持つ区分線型関数として表すことができる。
訳抜け防止モード: この結果、可能となる。 f を部分的-線型関数として表現し、臨界点上の勾配が 0 に等しい。
0.72
So, f is differentiable. したがって、f は微分可能である。 0.48
Differentiability of loss function in equation (2) follows from differentiability of f. 方程式 (2) における損失関数の微分可能性は f の微分可能性から従う。 0.60
So, gradient of loss function ∇wLtopo(f , g) can be written as follows: したがって、損失関数の勾配は、次のようになる: ^wLtopo(f , g) 0.78
(cid:88)(p,p(cid:48) )∈D(f ),D(g)(cid:104)2(bir th(p) − birth(p (cid:88)(p,p(cid:48) )ftpd(f),d(g)(cid:10 4)2(birth(p) − birth(p) 0.47
(cid:48) )) (cid:48) )) 0.41
∂f (cb(p)) ∂f (cb(p)) 0.48
+ ∂w + 2(death(p) − death(p + ∂w + 2(死(p) − death(p) 0.42
(cid:105)(3) Where, for each dot p ∈ D(f ) , we designate the birth and death critical points of the related topological structure by the notation cb(p) and cd(p), respectively [9]. (cid:105)(3) では、各ドット p ∈ d(f) に対して、関連する位相構造の生死臨界点をそれぞれ cb(p) と cd(p) で表す [9] 。
訳抜け防止モード: (cid:105)(3 ) ここで、各ドット p ∈ d(f) に対して 関連する位相構造の生死臨界点を記法cb(p)により指定する。 およびcd(p ) それぞれ [9 ] である。
0.76
Therefore, the gradient can be straightforwardly computed based on the chain rule. したがって、勾配はチェーン則に基づいて直接計算することができる。 0.69
∂f (cd(p)) ∂f (cd(p)) 0.48
∂w )) (cid:48) ∂w )) (cid:48) 0.40
C. Topological input image processing c.トポロジカル入力画像処理 0.88
As previously stated, topological priors can be fed into the segmentation process at many stages, such as the input stage, the training stage, or others. 前述したように、トポロジカル事前は、入力ステージ、トレーニングステージなど、多くの段階でセグメンテーションプロセスに入力することができる。 0.52
In the above section, we have seen that when we are posing topological priors 上記の節では、トポロジカルな事前のポーズをとっています。 0.51
英語(論文から抽出)日本語訳スコア
during the training phase, the process becomes sluggish and computationally expensive. トレーニングフェーズでは、プロセスは遅く、計算コストが高くなる。 0.69
To address this issue, we use a new technique (in UNet architecture) that processes the image using topological information before applying the actual segmentation algorithm, removing irrelevant objects and noise and ensuring that the modified image has well-defined topological characteristics. この問題に対処するために、実際のセグメンテーションアルゴリズムを適用する前に、トポロジカル情報を用いて画像を処理し、無関係なオブジェクトとノイズを除去し、修正された画像が適切に定義されたトポロジカル特性を持つことを保証する新しい技術(unetアーキテクチャ)を使用する。 0.64
The primary benefit of utilising this method is that it enables us to perform training with a simple cross-entropy loss function, and it also enables us to perform pre-processing on images whenever we like prior to solving the actual segmentation problem. この手法を利用する主な利点は、単純なクロスエントロピー損失関数でトレーニングを行うことができ、また、実際のセグメンテーション問題を解決する前にいつでも、画像の事前処理を行うことができることである。 0.78
Therefore, it should come as no surprise that the method is effective from a computational standpoint. したがって,この手法が計算的観点から有効であることは驚くにあたらない。 0.81
In addition to this, it is simple to apply to unsupervised segmentation problems such as those found in [4], which would not have been achievable if we had used priors during the training phase. これに加えて, [4] に見られるような教師なしのセグメンテーション問題にも簡単に適用できる。
訳抜け防止モード: これに加えて、[4 ] に見られるような教師なしのセグメンテーション問題にも簡単に適用できる。 トレーニングの段階で 前もって使ったら 達成できなかったでしょう
0.52
The purpose of this work is to incorporate topological image processing into supervised learning. 本研究の目的は,トポロジカル画像処理を教師あり学習に組み込むことである。 0.71
Fig. 1: Topological input image processing for segmentation 図1:セグメント化のためのトポロジカル入力画像処理 0.88
The first type of processing of the input image is image smoothening since this method has previously shown the advantages with persistent homology [12]. 入力画像の処理の第一のタイプは画像平滑化であり、この方法は以前に永続ホモロジー[12]の利点を示した。 0.77
Smoothening can be used to reduce noise, remove pixel-wise focus, to improves quality. スムースニングはノイズの低減、ピクセル単位のフォーカスの除去、品質向上に使用できる。 0.70
It can be performed by spatial or frequency filters, here in our case, we use a uniform filter from the standard scipy library, which moves the filter mask of size, say k×k, and replaces each pixel value by the average of its neighbors, including itself. 空間フィルタや周波数フィルタで行うことができ、この場合、標準のスキディライブラリから一様フィルタを用いて、例えばk×kのような大きさのフィルタマスクを移動させ、各ピクセルの値をそれ自身を含む隣人の平均値で置き換える。 0.72
We know the real world images; some images may or may not have borders or other irrelevant objects. 一部の画像は境界や無関係な物体を持っているかもしれないし、そうでないかもしれない。
訳抜け防止モード: 私たちは現実世界の画像を知っている 一部の画像は、境界や他の無関係なオブジェクトを持つことができる。
0.64
So, in general, it becomes difficult to guarantee that most persistent components are important features in the image. したがって、一般的に、ほとんどの永続コンポーネントが画像の重要な特徴であることを保証するのは難しい。 0.73
The idea of border modification was proposed in [4], in which we suppose that the objects of interest in many real-world images do not link with borders, or, in a weaker sense, that most images have objects of interest near the centre. 境界修正の考え方は [4] において提案され、多くの実世界の画像に対する関心の対象が境界と結び付いていないか、あるいは弱い意味では、ほとんどの画像が中心付近で興味のある対象を持っていると仮定する。 0.72
The border processing, in technical terms, constructs an image Ib from an original image by ensuring that each pixel within a distance d of the Ib border reaches the minimum value, while the rest values remain fixed. 技術的には、Ib境界の距離d内の各画素が最小値に達し、残りの値が固定されていることを保証して、原画像から画像Ibを構築する。
訳抜け防止モード: 技術的には、境界処理は、Ib境界の距離d内の各画素が最小値に達することを保証することにより、原画像から画像Ibを構築する。 残りの値は固定されている。
0.76
From elder rule3, this assures that every object that connects to this border will be born through it. 古いルール3から、この境界に繋がる全てのオブジェクトが、それを通して生まれることを保証します。 0.77
In the PD of Ib, all IbのPDで、すべて 0.61
3The elder rule asserts that when constructing a persistence diagram, if two components or holes are merged, the youngest component or hole dies. 3 長老則は、持続性図を構築するとき、2つの成分または穴がマージされると、最年少の成分または穴は死ぬと主張する。 0.54
This rule is also known as the old survive rule [4] この規則は古い生存規則としても知られている[4] 0.81
irrelevant portions correspond to a single point with infinite persistence, while features have finite persistence. 無関係な部分は無限の持続性を持つ単一点に対応し、特徴は有限の持続性を持つ。 0.62
Topological input image processing is simply processing the images using the geometric information we have. トポロジカル入力画像処理は、我々が持っている幾何学的情報を用いて単純に画像を処理する。 0.65
Here, we will use these as processing steps, but there can be plenty of such modifiers. ここでは、これらを処理ステップとして使用しますが、そのような修飾子はたくさんあります。
訳抜け防止モード: ここでは、これらを処理ステップとして使用します。 しかしこのような修飾剤は たくさんあります
0.61
After the first step, which is to determine the number of components shown by the input image, using lifetime distribution. 最初のステップの後に、ライフタイム分布を使用して、入力画像で示されるコンポーネントの数を決定する。 0.81
Border modification may restrict to finite lifetimes. 境界修正は有限寿命に制限される。 0.78
We may also use any outlier detector for threshold selections. しきい値選択には、任意の外れ値検出器を使うこともできる。 0.57
According to the method described in [13], pertinent peaks can be retrieved from the persistence diagram if the diagram includes a band of a certain width that does not include any points. 13]に記載された方法によれば、図が点を含まない特定の幅のバンドを含む場合、関連するピークを永続化図から取り出すことができる。 0.72
In this work, we apply this method. 本研究では,この手法を適用する。 0.70
In a more technical sense, it is the largest empty region parallel to the diagonal. より技術的な意味では、対角線に平行な最大の空の領域である。 0.77
We are able to draw it into the persistence diagram by simply iterating through lifetimes in decreasing order in order to track the difference between consecutive lifetimes [4]. 連続した寿命の差を追跡するために、単に減順でライフタイムを反復することで、永続性図に描くことができます [4]。 0.79
Finally, that threshold is selected, which gives the largest difference between two lifetimes. 最後に、その閾値が選択され、2つの寿命で最大の差が生じる。 0.73
After selecting the threshold, we increase the contrast between the objects in the image with a lifetime above that threshold and background. しきい値を選択した後、画像内のオブジェクト間のコントラストを、そのしきい値と背景よりもライフタイムで高めます。 0.78
For, marking objects in image I, we use the below algorithm, for details please see [13]; [4] 画像iのオブジェクトをマーキングするには、下記のアルゴリズムを使用し、詳細は[13]; [4]を参照してください。 0.77
Conceptually, after obtaining the lifetime of components directly from the persistent diagram, we identifying the diagram point having a significant finite lifetime using threshold, then sorting these identified points by decreasing death times. 概念的には,コンポーネントのライフタイムを永続的なダイアグラムから直接取得した後,しきい値を用いて重要な有限ライフタイムを持つダイアグラムポイントを同定し,これらの特定ポイントを死時間を短縮することでソートする。 0.68
For all sorted point, we first identify the image pixel that corresponds to this diagram point and store the image pixel corresponding to the death time of this diagram point, then in ’C’ put all pixels connected to ’b’ before its death, ensuring that ’C’ doesn’t have overlap with previous components, finally mark the component for this diagram point in output, and iterate for all points like-wise. すべてのソートポイントに対して、まずこのダイアグラムポイントに対応する画像ピクセルを特定し、このダイアグラムポイントの死亡時刻に対応する画像ピクセルを格納し、次に、‘C’では、その死の前に‘b’に接続されたすべてのピクセルを配置し、’C’が以前のコンポーネントと重複しないことを確認し、最後にこのダイアグラムポイントの出力をマークし、すべてのポイントを同様に繰り返します。 0.78
INPUTTopological Image ProcessorSegModelPre dictionModified ImageImagesegmentati onwithtopologicalpri orsAlgorithm1Objectm arkinginanimagebased onpersis-tencediagra mInput:ImageI,Persis tentdiagramDgm,andth resholdαOutput:BinaryImageJm arkingobjectsinIJ,ds =zeros-like(I),list() Lifetimes=Dgm.death-Dgm.birthO bj-idxs=where(α<Lifetimes<∞)Obj-idxs=Obj-idxs(cid:2)argso rt(Dgm.death[Obj-idxs],’desc’)(cid:3)foridxinObj- idxsdob=birth-pixel(idx)ds.a ppend(death-pixel(id x))C=component(cid:0)I[I(b)≤Dgm.death[idx]],b(cid:1)new-dval=min(cid:0)I[Intersects(ds,C),Dgm .death[idx]](cid:1)C=component(cid:0)I[I(b)≤new−dval],b(cid:1)J[C]=1endforConceptually, Afterobtainingthelif etimeofcomponentsdir ectlyfromthePersiste ntdiagram,weidentify ingthedia-grampointh avingasignificantfinitelifetimeusingthr esh-old,thensortingt heseidentifiedpointsbydecreasing deathtimes.Forallsor tedpoint,wefirstidentifytheimagep ixelthatcorrespondst othisdiagrampointand storetheimagepixelco rrespondingtothedeat htimeofthisdiagrampo int,thenin’C’putallpixelsconnecte dto’b’beforeitsdeath,ensur ingthat’C’doesn’thaveoverlapwithprev iouscom-ponents,finallymarkthecomponen tforthisdiagrampoint inoutput,anditeratef orallpointslike-wise .Finally,weapplymult i-variateinterpolati ontofillback-groundpixelst oobtainasmoothtransi tionbetweenback-grou ndandobjectsintheima ge.4.Experiments4.1. DatasetThefirstchallengeon2Dsegm entationofneuronalpr o-cessesinEMimagesbe guninMay2012.Theyhav egiventrainingdataco nsistingof30images,t heseimagesrepresenta setofconsecutiveslic eswithinone3Dvolume, basicallywhichcontai nsasetof30sequential sectionsfromaserials ectionTransmissionEl ectronMicroscopy(ssT EM)datasetoftheDroso philafirstinstarlarvaventra lnervecord(VNC). INPUTTopological Image ProcessorSegModelPre dictionModified ImageImagesegmentati onwithtopologicalpri orsAlgorithm1Objectm arkinginanimagebased onpersis-tencediagra mInput:ImageI,Persis tentdiagramDgm,andth resholdαOutput:BinaryImageJm arkingobjectsinIJ,ds =zeros-like(I),list() Lifetimes=Dgm.death-Dgm.birthO bj-idxs=where(α<Lifetimes<∞)Obj-idxs=Obj-idxs(cid:2)argso rt(Dgm.death[Obj-idxs],’desc’)(cid:3)foridxinObj- idxsdob=birth-pixel(idx)ds.a ppend(death-pixel(id x))C=component(cid:0)I[I(b)≤Dgm.death[idx]],b(cid:1)new-dval=min(cid:0)I[Intersects(ds,C),Dgm .death[idx]](cid:1)C=component(cid:0)I[I(b)≤new−dval],b(cid:1)J[C]=1endforConceptually, Afterobtainingthelif etimeofcomponentsdir ectlyfromthePersiste ntdiagram,weidentify ingthedia-grampointh avingasignificantfinitelifetimeusingthr esh-old,thensortingt heseidentifiedpointsbydecreasing deathtimes.Forallsor tedpoint,wefirstidentifytheimagep ixelthatcorrespondst othisdiagrampointand storetheimagepixelco rrespondingtothedeat htimeofthisdiagrampo int,thenin’C’putallpixelsconnecte dto’b’beforeitsdeath,ensur ingthat’C’doesn’thaveoverlapwithprev iouscom-ponents,finallymarkthecomponen tforthisdiagrampoint inoutput,anditeratef orallpointslike-wise .Finally,weapplymult i-variateinterpolati ontofillback-groundpixelst oobtainasmoothtransi tionbetweenback-grou ndandobjectsintheima ge.4.Experiments4.1. DatasetThefirstchallengeon2Dsegm entationofneuronalpr o-cessesinEMimagesbe guninMay2012.Theyhav egiventrainingdataco nsistingof30images,t heseimagesrepresenta setofconsecutiveslic eswithinone3Dvolume, basicallywhichcontai nsasetof30sequential sectionsfromaserials ectionTransmissionEl ectronMicroscopy(ssT EM)datasetoftheDroso philafirstinstarlarvaventra lnervecord(VNC). 0.16
Theyhaveprovidedtheg round-truthimagesasw ell.Belowthereisthes ampleoftheimageandco rrespondingmask.Itca nbeeasilyseenthecomp lexityofthegeometryo fthisdataset.Eachtra iningimageisofsize51 2×512ingrayscale,withc orrespondinggroundtr uth.Thefirstpre-processingwas todividethedatasetin totrainingandevaluat ionsetsintoan80:20ra tio.Then,wesavedthefinaldatasetforwhichwe didallouranalysis.Ch oosingthisdatasetwas agreatideabecauseofi tscomplexgeometry,so itwaschallengingtous ethetopologicalprior sinthisdata.Figure2. Imageandcorrespondin gMask4.2.Evaluationm etricsAsthesegmentat iontaskisalreadywell developedindeeplearn ingliterature,itgave usmuchroomforusingal readyproposedmetrics aswell;weuseavarietyofevalu atingmetricsinourres earchexpository,some ofthemfollowsfrom(He ipkeetal.,1998),wher etheywereusedforasim ilarproblem.Inadditi on,averageaccuracy,c orrectness,quality,d ice,manymore,wehaveu sedthetopologicalrel evantmetric,i.e.,Bet tinumbererror,whichi sdirectlycomparingth etopologyofpredictio nandground-truth.Bel owwecanseethebasicde finitions,•Accuracy:Thisisthemo stusedmetricforbinar yseg-mentationproble ms,whichsimplytellsu sthepercent-ageofcor rectlyclassifiedpixels.Accuracy=TP+TNTP+TN+FP+FN,∈[0;1]•Sørensen-DiceCoefficient:Thismetricisth estatisti-calassessm entforsimilarityoftw ogivensamples.Dice=2TP2TP+FP+FN,∈[0;1]•Completeness/lnclusi onscore/Recall:Asses singhowwellthepredic tedencompassesthegro und-truth.Completene ss=TPTP+FN,∈[0;1]•Correctness/Precisio n:Thecorrectnessrepr esentsthepercentageo fcorrectlyextractedp ixelsCorrectness=TPTP+FP,∈[0;1] Theyhaveprovidedtheg round-truthimagesasw ell.Belowthereisthes ampleoftheimageandco rrespondingmask.Itca nbeeasilyseenthecomp lexityofthegeometryo fthisdataset.Eachtra iningimageisofsize51 2×512ingrayscale,withc orrespondinggroundtr uth.Thefirstpre-processingwas todividethedatasetin totrainingandevaluat ionsetsintoan80:20ra tio.Then,wesavedthefinaldatasetforwhichwe didallouranalysis.Ch oosingthisdatasetwas agreatideabecauseofi tscomplexgeometry,so itwaschallengingtous ethetopologicalprior sinthisdata.Figure2. Imageandcorrespondin gMask4.2.Evaluationm etricsAsthesegmentat iontaskisalreadywell developedindeeplearn ingliterature,itgave usmuchroomforusingal readyproposedmetrics aswell;weuseavarietyofevalu atingmetricsinourres earchexpository,some ofthemfollowsfrom(He ipkeetal.,1998),wher etheywereusedforasim ilarproblem.Inadditi on,averageaccuracy,c orrectness,quality,d ice,manymore,wehaveu sedthetopologicalrel evantmetric,i.e.,Bet tinumbererror,whichi sdirectlycomparingth etopologyofpredictio nandground-truth.Bel owwecanseethebasicde finitions,•Accuracy:Thisisthemo stusedmetricforbinar yseg-mentationproble ms,whichsimplytellsu sthepercent-ageofcor rectlyclassifiedpixels.Accuracy=TP+TNTP+TN+FP+FN,∈[0;1]•Sørensen-DiceCoefficient:Thismetricisth estatisti-calassessm entforsimilarityoftw ogivensamples.Dice=2TP2TP+FP+FN,∈[0;1]•Completeness/lnclusi onscore/Recall:Asses singhowwellthepredic tedencompassesthegro und-truth.Completene ss=TPTP+FN,∈[0;1]•Correctness/Precisio n:Thecorrectnessrepr esentsthepercentageo fcorrectlyextractedp ixelsCorrectness=TPTP+FP,∈[0;1] 0.08
英語(論文から抽出)日本語訳スコア
In the end, we use multi-variate interpolation to fill in the background pixels in order to get an image with a smooth transition between the background and the objects in the image, likewise proposed in [4], but here we have supervised mechanism for training. 最後に、[4]で提案されているように、背景と画像内のオブジェクトとのスムーズな遷移を持つ画像を得るために、背景ピクセルを埋めるために多変量補間を用いる。
訳抜け防止モード: 最後に,画像中の背景とオブジェクト間のスムーズな遷移を伴う画像を得るために,背景画素を埋めるために多変量補間を用いる。 同様に[4]で提案されているが ここでは訓練の仕組みを 監督しています
0.85
A. Dataset IV. A.データセット IV。 0.51
EXPERIMENTS The first challenge on 2D segmentation of neuronal processes in EM images begun in May 2012. 実験 EM画像における神経過程の2次元分割に関する最初の課題は2012年5月に始まった。 0.55
They have provided training data consisting of 30 image stacks. 彼らは30のイメージスタックからなるトレーニングデータを提供している。 0.66
These images represent a set of consecutive slices within one 3D volume, basically which contains a set of 30 sequential sections from a serial section Transmission Electron Microscopy (ssTEM) data set of the Drosophila first instar larva ventral nerve cord (VNC). これらの画像は、1つの3dボリューム内の連続したスライスのセットを表しており、基本的にはショウジョウバエ第一内臓腹側神経コード(vnc)のシリアルセクション透過電子顕微鏡(sstem)データセットから30個の連続したセクションを含む。 0.76
They have provided the ground-truth images as well. 彼らはまた、地平線画像も提供した。 0.54
Below there is the sample of the image and corresponding mask. 下には画像と対応するマスクのサンプルがある。 0.73
It can be easily seen the complexity of the geometry of this dataset. このデータセットの幾何学の複雑さは容易に見ることができる。 0.83
Each training image is of size 512 × 512 in grayscale, with corresponding ground truth. 各トレーニングイメージは、グレースケールでサイズ512×512であり、対応する基底真理である。 0.70
The first preprocessing was to divide the dataset into training and evaluation sets into an 80:20 ratio. 最初の前処理はデータセットをトレーニングに分割し、評価を80:20の比率にすることでした。 0.69
Then, we saved the final dataset for which we did all our analysis. そして、すべての分析を行った最後のデータセットを保存しました。 0.76
Choosing this dataset was a great idea because of its complex geometry, so it was challenging to use the topological priors in this data. このデータセットの選択は、その複雑な幾何学のために素晴らしいアイデアだったので、このデータのトポロジ的事前利用は困難でした。 0.69
Fig. 2: Image and corresponding Mask 第2図:画像及び対応するマスク 0.82
B. Evaluation metrics As the segmentation task is already well developed in deep learning literature, it gave us much room for using already proposed metrics as well; we use a variety of evaluating metrics in our research expository, some of them follows from [14], where they were used for a similar problem. B.評価指標 セグメンテーションタスクは、すでにディープラーニングの文献でよく開発されているので、すでに提案されているメトリクスを使用する余地もたくさんあります。
訳抜け防止モード: B.評価指標 セグメンテーションタスクは、ディープラーニング文学ですでによく発達している。 既に提案されているメトリクスを使う余地がたくさんあります; 調査資料にさまざまな評価指標を使用します。 そのうちのいくつかは [14] から来ています 同様の問題に使われています
0.73
In addition, average accuracy, correctness, quality, dice, many more, we have used the topological relevant metric, i.e., Betti number error, which is directly comparing the topology of prediction and ground-truth. さらに, 平均精度, 正確性, 品質, サイコロ, その他多くの点で, トポロジカル関連計量, すなわちベッチ数誤差を用いて, 予測のトポロジとグラウンドトルースを直接比較した。 0.74
Below we can see the basic definitions, 以下は基本的な定義である。 0.68
• Accuracy: This is the most used metric for binary segmentation problems, which simply tells us the percentage of correctly classified pixels. •精度: これは二分分割問題において最もよく用いられる指標であり、正しく分類されたピクセルの比率を単純に示す。
訳抜け防止モード: • 精度 : これはバイナリセグメンテーション問題の最もよく使われる指標である。 正確に分類されたピクセルの割合を 教えてくれます
0.79
Accuracy = T P + T N 正確さ= t p + t n である。 0.48
T P + T N + F P + F N T P + T N + F P + F N 0.43
,∈ [0; 1] • Sørensen-Dice Coefficient: This metric is the statistical ,∈ [0; 1] •Sørensen-Dice係数:この計量は統計量である 0.57
assessment for similarity of two given samples. 2つのサンプルの類似性の評価 0.77
Dice = 2T P 2T P + F P + F N ディス= 2T P 2T P + F P + F N 0.39
,∈ [0; 1] • Completeness/lnclusi on score/Recall: Assessing well the predicted encompasses the ground-truth. ,∈ [0; 1] 完結度/完結度スコア/リコール:予測された範囲を十分に評価する。 0.40
how Completeness = どうやって 完全性= 0.57
T P T P + F N T P t p + f n である。 0.50
,∈ [0; 1] • Correctness/Precisio n: The correctness represents the ,∈ [0; 1] • 正しさ/正しさ:正しさが示すもの 0.45
percentage of correctly extracted pixels 正しく抽出された画素の割合 0.64
Correctness = T P 正しさ=正しさ T P 0.39
T P + F P t p + f p である。 0.60
,∈ [0; 1] • Quality : Quality combines completeness and correctness into a single measure, so it is more general and is defined as: ,∈ [0; 1] •品質:品質は完全性と正しさを一つの尺度に結合するので、より一般的なもので、次のように定義される。
訳抜け防止モード: ,∈ [0; 1] •品質:品質は完全性と正しさを一つの尺度に結合する。 より一般的で、次のように定義されます
0.56
Quality = T P 品質; 品質 T P 0.54
T P + F P + F N T P + F P + F N 0.42
,∈ [0; 1] All the above metrics have optimal value 1 ,∈ [0; 1] 上記の指標はすべて最適値 1 である。 0.54
• Betti number-Error: This metric is more important in our case as our main focus is about topological segmentation, the betti-number error is more topology-relevant. • ベッチ数誤差: この計量は、トポロジカルセグメンテーションに主眼を置き、ベッティ数誤差はトポロジ関連であるので、我々の場合より重要である。 0.67
In this, we randomly sample the small patches of ground-truth and prediction, then compute the average absolute difference of their betti-numbers βk (give us a measure of the number of handles, closed loops etc in that patch), this reveals how much the geometry of prediction is different from ground-truth. 本研究では, 接地構造と予測の小さなパッチをランダムにサンプリングし, それらのベッティ数βkの平均絶対差を計算する(そのパッチのハンドル数, 閉ループ数など)。
訳抜け防止モード: ここでは,地すべりの小さなパッチ – 真実と予測 – をランダムにサンプリングする。 すると、彼らのベッティの平均絶対差を計算します - 数 βk (ハンドルの数を測ります)。 パッチのクローズドループなど) 予測の幾何学は地上とは異なる - 真実だ
0.73
The smaller the betti-number error, the better is segmentation, ideal value is zero, which means the prediction map has exactly the same topology as that of ground-truth, sometimes called topologically correct. ベッティ数誤差が小さいほど、セグメンテーションが良くなり、理想値が 0 となるので、予測写像は地軸の位相と全く同じ位相を持ち、時として位相的に正しい。
訳抜け防止モード: betti - numberエラーが小さいほど、セグメンテーションがよい。 理想値はゼロです つまり 予測マップは、地面の位相と全く同じトポロジを持っている - 真実、時に位相的に正しい。
0.74
C. Details of training procedure Many deep neural networks are used for the segmentation problem. C.訓練手順の詳細 多くのディープニューラルネットワークがセグメンテーション問題に使われている。 0.81
However, for the task of biomedical segmentation, the best results are shown by U-Net (Fig.3). しかし, バイオメディカルセグメンテーションの課題では, 最良の結果はu-netで示される(第3図)。 0.77
Fig. 3: Architecture of U-Net 図3:U-Netのアーキテクチャ 0.83
英語(論文から抽出)日本語訳スコア
We trained U-Net on augmented small patches from images (64 × 64) as computing topological priors on small patches is faster. 小さなパッチに対するトポロジ的事前計算がより高速になるため、イメージ(64×64)からの小さなパッチの強化にU-Netを訓練した。 0.56
Augmentation was used because we have a small dataset, and random choice of patches and their random flipping helps to enlarge the dataset for training. 拡張は、小さなデータセットがあり、パッチのランダムな選択とランダムなフリップがトレーニングのためにデータセットを拡大するのに役立ちます。 0.70
Because of computational complexity, we also take batch size equal to 1. 計算の複雑さのため、バッチサイズは1に等しい。 0.59
On such a small batch size U-Net with and without topological priors gave better results. このような小さなバッチサイズであるU-Netでは、トポロジカルな事前と無関係に、より良い結果が得られる。 0.44
For the realization of topological loss, we used LevelSetLayer2D function from TopologyLayer 4, which calculate persistence diagrams. トポロジ損失を実現するため,TopologyLayer 4のLevelSetLayer2D関数を用いて永続性図を計算した。 0.78
We added topological loss to CrossEntropy loss 1 with λ = 1 12000 to make this losses have the same order. 我々は, λ = 1 12000 でクロスエントロピー損失 1 に位相損失を加えた。 0.57
Also, for visualization of diagrams, we used Ripser library. また、図の視覚化にはRipserライブラリを使用しました。 0.64
We trained U-Net with and without topological priors on 100 epochs using Adam optimizer. 我々はアダムオプティマイザを用いて100エポックのトポロジカル事前および無位相でU-Netを訓練した。 0.43
Examples of changing persistence diagrams for prediction during training with topological loss are on Fig 4. トポロジ的損失を伴うトレーニング中の予測のための永続化図の変更例は図4に示す。
訳抜け防止モード: トポロジ的損失を伴うトレーニングにおける持続性図の変更例 図4にある。
0.77
We can see that number of points decreased. その点数が減っているのがわかります。 0.65
Fig. 5: Predictions without topological priors (middle row) and with topoloss (bottom row) 第5図:中間列(中間列)とトポロス(底列)を伴わない予測 0.65
Fig. 4: Persistence diagrams for 5 (left) and 95 (right) epochs 第4図:5(左)と95(右)のパーシステンス図 0.59
D. Results After training on small patches, we plotted predictions on whole images. d. 結果 小さなパッチを訓練した後、画像全体の予測をプロットした。 0.71
The comparison of predictions of U-Net trained without any topological priors with trained with a topological loss on Fig 5. Fig 5のトポロジ的損失で訓練されたトポロジ的先行性のないU-Netの予測の比較 0.76
Also, the comparison of predictions of U-Net trained without any topological priors with trained with a topological input image processing on Fig 6. また、図6のトポロジカル入力画像処理で訓練されたトポロジカル事前の訓練を受けないU-Netの予測の比較を行った。 0.65
We can see that using topological priors make a prediction with a smaller amount of holes in cells. トポロジカルな前もって使うと、細胞の穴が小さくなるという予測ができる。
訳抜け防止モード: ご覧の通り トポロジカルな前駆体を用いることで、細胞の穴を小さくして予測できる。
0.66
4TopologyLayer is a library where by using of PyTorch library and C++ 4TopologyLayerはPyTorchライブラリとC++を使用するライブラリである 0.83
the differentiable persistence diagram was implemented. 異なるパーシステンス・ダイアグラムが 実装されました 0.48
Fig. 6: Predictions without topological priors (middle row) and with topological image processing (bottom row) 図6: トポロジカル先行(中間行)及びトポロジカル画像処理(ボトム行)による予測 0.57
Finally, we compute all metrics for various techniques and summarise the findings in table I. From metrics, it can be seen that topological priors give better results than classical segmentation (Simple UNet) in terms of accuracy, quality, and correctness, as well as topological metric (Betti-error). 最後に, 様々な手法のすべての指標を計算し, 結果を表Iで要約する。測度から, トポロジカル先行値が古典的セグメンテーション (Simple UNet) よりも精度, 品質, 正確性, およびトポロジカル測度 (Betti-error) の点で優れていることが分かる。 0.80
英語(論文から抽出)日本語訳スコア
UNet with topological トポロジカルなUNet 0.48
UNet with topological トポロジカルなUNet 0.48
priors in training image processing 訓練に先立って 画像処理 0.81
Metric Simple UNet メートル法 シンプルなUNet 0.66
Accuracy Completeness Correctness Quality Dice 正確さ 完全性 品質感 0.57
Betti error 0.899 0.975 0.907 0.886 0.939 1.16 ベティエラー 0.899 0.975 0.907 0.886 0.939 1.16 0.38
0.910 0.951 0.938 0.894 0.944 1.02 0.910 0.951 0.938 0.894 0.944 1.02 0.22
0.909 0.971 0.92 0.895 0.945 1.1 0.909 0.971 0.92 0.895 0.945 1.1 0.22
[9] X. Hu, L. Fuxin, D. Samaras, and C. Chen, “Topology-preserving deep [9]X. Hu, L. Fuxin, D. Samaras, C. Chen, “地形保存深度” 0.40
image segmentation,” 2019. Image segmentation”. 2019年。 0.88
[10] H. Edelsbrunner and J. Harer, “Persistent homology — a survey.” [11] N. Otter, M. A. Porter, U. Tillmann, P. Grindrod, and H. A. Harrington, “A roadmap for the computation of persistent homology,” EPJ Data Science, vol. H. Edelsbrunner と J. Harer, “Persistent homology – a survey.” [11] N. Otter, M. A. Porter, U. Tillmann, P. Grindrod, H. A. Harrington, “A roadmap for the compute of persistent homology, EPJ Data Science, vol.
訳抜け防止モード: ^ H. Edelsbrunner and J. Harer, "Persistent homology – a survey. [11 ] N. Otter, M. A. Porter, U. Tillmann, P. Grindrod, H・A・ハリントンは「永続的ホモロジーの計算のロードマップ」と評した。 EPJデータサイエンス。
0.78
6, no. 1, Aug 2017. 6月1日、2017年8月。 0.61
[Online]. Available: http://dx.doi.org/10 .1140/epjds/s13688-0 17-0109-5 [オンライン]。 http://dx.doi.org/10 .1140/epjds/s13688-0 17-0109-5 0.39
[12] R. Assaf, A. Goupil, V. Vrabie, T. Boudier, and M. Kacim, “Persistent homology for object segmentation in multidimensional grayscale images,” Pattern Recognition Letters, vol. 12] r. assaf氏、a. goupil氏、v. vrabie氏、t. boudier氏、m. kacim氏、"多次元グレースケール画像におけるオブジェクトセグメンテーションの永続的ホモロジー"である。
訳抜け防止モード: [12 ]R. Assaf, A. Goupil, V. Vrabie, T. Boudier, M. Kacim, “多次元グレースケール画像におけるオブジェクトセグメンテーションのための永続的ホモロジー” パターン認識文字、vol。
0.81
112, pp. 277–284, 09 2018. 112, pp. 277-284, 09 2018。 0.83
[13] B. Rieck and H. Leitte, “Agreement analysis of quality measures for dimensionality reduction,” in Topological Methods in Data Analysis and Visualization IV: Theory, Algorithms, and Applications. 13] b. rieck氏とh. leitte氏は、データ分析と可視化におけるトポロジカルな手法(理論、アルゴリズム、応用)の中で、"次元性低減のための品質尺度の分別分析"について論じた。
訳抜け防止モード: [13 ]B.Rieck,H.Leitte,「次元削減のための品質対策の合意分析」 データ分析・可視化におけるトポロジカル手法IV : 理論・アルゴリズム・応用
0.78
Springer International Publishing, 2017, pp. 103–117. Springer International Publishing, 2017, pp. 103-117。 0.47
[14] C. Heipke, H. Mayer, C. Wiedemann, and O. Jamet, “Empirical evalu- C. Heipke, H. Mayer, C. Wiedemann, O. Jamet, “Empirical evalu” 0.38
ation of automatically extracted road axes,” 1998. 自動抽出された道路軸のイオン」1998年。 0.69
TABLE I: Results for different strategies. TABLE I: さまざまな戦略の結果。 0.79
V. CONCLUSION V.コンキュレーション 0.76
We have shown that incorporating the topological priors into deep neural networks (UNet) is a worthwhile idea, especially for problems whose solutions are primarily dependent upon the geometry of the underlying data. 深層ニューラルネットワーク(UNet)にトポロジ的な先行概念を組み込むことは、特に基礎となるデータの幾何学に主に依存する問題に対して価値のあるアイデアである。 0.71
We have also shown the usefulness of posing topological information at different stages in the architecture for supervised learning problems. また,教師付き学習問題に対するアーキテクチャの異なる段階におけるトポロジ的情報のポーズの有用性を示した。 0.70
The results of the experiments themselves demonstrate the superiority of the concept that was presented and should be able to discover a variety of applications in data analysis and other prospective domains that are linked. 実験の結果は、提示された概念の優越性を示し、データ分析やその他の関連分野における様々な応用を発見できることが示されている。 0.78
Despite the fact that our findings were encouraging, the training process is somewhat slow, which limits its applicability to datasets that contain multiple variables. 私たちの発見が奨励されたにもかかわらず、トレーニングプロセスはやや遅く、複数の変数を含むデータセットに適用性を制限する。 0.66
So, the plan for the future is to improve the computational efficiency of this method and apply it to multi-dimensional datasets like 3D segmentation tasks. 今後の計画では, この手法の計算効率を向上し, 3次元セグメンテーションタスクのような多次元データセットに適用する予定である。 0.83
This project’s source code is also accessible 5 このプロジェクトのソースコードもアクセス可能になった。 0.71
REFERENCES [1] A. Mosinska, P. Marquez-Neila, M. Kozinski, and P. Fua, “Beyond the 参考 [1]モシンスカ、P. Marquez-Neila、M. Kozinski、P. Fua 0.55
pixel-wise loss for topology-aware delineation,” 2017. トポロジーを意識したデライン化のためのピクセル単位の損失」2017年。 0.41
[2] O. Oktay, E. Ferrante, K. Kamnitsas, M. Heinrich, W. Bai, J. Caballero, S. A. Cook, A. de Marvao, T. Dawes, D. P. O’Regan, and et al , “Anatomically constrained neural networks (acnns): Application to cardiac image enhancement and segmentation,” IEEE Transactions on Medical Imaging, vol. [2] O. Oktay, E. Ferrante, K. Kamnitsas, M. Heinrich, W. Bai, J. Caballero, S. A. Cook, A. de Marvao, T. Dawes, D. P. O’Regan, et al , “解剖学的に制約されたニューラルネットワーク (acnns): 心臓画像の強調とセグメンテーションへの応用” IEEE Transactions on Medical Imaging, vol. 0.87
37, no. 2, p. 384–395, Feb 2018. 37, no. 2, p. 384-395, 2018年2月。 0.76
[Online]. Available: http://dx.doi.org/10 .1109/TMI.2017.27434 64 [オンライン]。 利用可能: http://dx.doi.org/10 .1109/TMI.2017.27434 64 0.47
[3] C. Chen, X. Ni, Q. Bai, and Y. Wang, “A topological regularizer for classifiers via persistent homology,” in Proceedings of the TwentySecond International Conference on Artificial Intelligence and Statistics, ser. C. Chen, X. Ni, Q. Bai, Y. Wang, “A topological regularizer for classifiers via persistent homology” in Proceedings of the TwentySecond International Conference on Artificial Intelligence and Statistics, ser。
訳抜け防止モード: [3]C. Chen, X. Ni, Q. Bai, Y. Wang氏は,“永続的ホモロジーによる分類器のトポロジカルレギュレータ”だ。 In Proceedings of the TwentySecond International Conference on Artificial Intelligence and Statistics,ser.
0.87
Proceedings of Machine Learning Research, K. Chaudhuri and M. Sugiyama, Eds. 機械学習研究の成果 K. Chaudhuri と M. Sugiyama, Eds 0.76
, vol. 89. PMLR, 16–18 Apr 2019, pp. 2573–2582. ヴォル。 89. PMLR, 16–18 Apr 2019, pp. 2573–2582。 0.38
[Online]. Available: https://proceedings. mlr.press/v89/chen19 g.html [オンライン]。 利用可能: https://proceedings. mlr.press/v89/chen19 g.html 0.48
[4] N. G. Robin Vandaele and O. Gevaert, “Topological image modification for object detection and topological image processing of skin lesions,” in Scientific Reports, nature 10:21061, 2020. N. G. Robin Vandaele and O. Gevaert, “Topological image modified for object detection and Topological image processing of skin lesions” in Scientific Reports, nature 10:21061, 2020。
訳抜け防止モード: 4]n.g. robin vandaele,o. gevaert両著「皮膚病変の物体検出とトポロジカル画像処理のためのトポロジカルイメージ修正」 科学論文では、nature 10:21061、2020。
0.73
[Online]. Available: https://doi.org/10.1 038/S41598-020-77933 -Y [オンライン]。 https://doi.org/10.1 038/s41598-020-77933 -y 0.40
[5] R. Assaf, A. Goupil, V. Vrabie, and M. Kacim, “Homology Functionality for Grayscale Image Segmentation,” in CRIMSTIC, ser. R. Assaf, A. Goupil, V. Vrabie, M. Kacim, “Homology Functionality for Grayscale Image Segmentation”, CRIMSTIC, Ser。
訳抜け防止モード: [5]R. Assaf, A. Goupil, V. Vrabie, M. Kacim, “Grayscale Image Segmentationのためのホモロジー機能” CRIMSTICでは、Ser 。
0.90
Current Research in Information Technology, Mathematical Sciences, vol. 情報技術・数理科学における最近の研究動向(その2) 0.51
8, Melaka, Malaysia, 2016, pp. 281–286. 第8巻、マレーシア、2016年、p.281-286。 0.50
[Online]. Available: https://hal.archives -ouvertes.fr/hal-021 08426 [オンライン]。 https://hal.archives -ouvertes.fr/hal-021 08426 0.43
[6] J. R. Clough, I. Oksuz, N. Byrne, J. A. Schnabel, and A. P. King, “Explicit topological priors for deep-learning based image segmentation using persistent homology,” 2019. 6] j. r. clough, i. oksuz, n. byrne, j. a. schnabel, a. p. king, “永続ホモロジーを用いたディープラーニングに基づくイメージセグメンテーションのトポロジカルな優先事項” 2019。 0.77
[7] J. Clough, N. Byrne, I. Oksuz, V. A. Zimmer, J. A. Schnabel, and A. King, “A topological loss function for deep-learning based image segmentation using persistent homology,” IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 1–1, 2020. J. Clough, N. Byrne, I. Oksuz, V. A. Zimmer, J. A. Schnabel, A. King, “A topological loss function for Deep-learning based image segmentation using persistent homology”, IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 1–1, 2020。
訳抜け防止モード: [7 ] J. Clough, N. Byrne, I. Oksuz, V・A・ジマー、J・A・シュナベル、A・キング。 深層学習に基づく画像セグメンテーションのための位相損失関数 永続的なホモロジーを使って」 IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 1-1, 2020
0.78
[8] Y. -J. [8] Y。 -j。 0.55
Xin and Y. -H. Xin と Y。 -h。 0.77
Zhou, “Topology on image processing,” in Proceedings of ICSIPNN ’94. と、icsipnnの議事録に書かれている。 0.11
International Conference on Speech, Image Processing and Neural Networks, 1994, pp. 764–767 vol.2. International Conference on Speech, Image Processing and Neural Networks, 1994, pp. 764–767 vol.2 0.48
5https://github.com/ ShakirSofi/TopoSeg.git 5https://github.com/ ShakirSofi/TopoSeg.g it 0.16
             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。