論文の概要: A Quantitative Comparison between Shannon and Tsallis Havrda Charvat
Entropies Applied to Cancer Outcome Prediction
- arxiv url: http://arxiv.org/abs/2203.11943v1
- Date: Tue, 22 Mar 2022 13:51:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 05:12:47.994821
- Title: A Quantitative Comparison between Shannon and Tsallis Havrda Charvat
Entropies Applied to Cancer Outcome Prediction
- Title(参考訳): 癌予後予測におけるShannonとTsallis Havrda Charvat Entropiesの定量的比較
- Authors: Thibaud Brochet, J\'er\^ome Lapuyade-Lahorgue, Pierre Vera and Su Ruan
- Abstract要約: パラメータ化されたTsallis-Havrda-Charvatエントロピーと古典的なシャノンエントロピーに基づく損失関数の比較を行った。
CT画像と患者情報の両方に基づいて、再発予測タスクを実行するためにマルチタスクディープニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 4.626261940793027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose to quantitatively compare loss functions based on
parameterized Tsallis-Havrda-Charvat entropy and classical Shannon entropy for
the training of a deep network in the case of small datasets which are usually
encountered in medical applications. Shannon cross-entropy is widely used as a
loss function for most neural networks applied to the segmentation,
classification and detection of images. Shannon entropy is a particular case of
Tsallis-Havrda-Charvat entropy. In this work, we compare these two entropies
through a medical application for predicting recurrence in patients with
head-neck and lung cancers after treatment. Based on both CT images and patient
information, a multitask deep neural network is proposed to perform a
recurrence prediction task using cross-entropy as a loss function and an image
reconstruction task. Tsallis-Havrda-Charvat cross-entropy is a parameterized
cross entropy with the parameter $\alpha$. Shannon entropy is a particular case
of Tsallis-Havrda-Charvat entropy for $\alpha$ = 1. The influence of this
parameter on the final prediction results is studied. In this paper, the
experiments are conducted on two datasets including in total 580 patients, of
whom 434 suffered from head-neck cancers and 146 from lung cancers. The results
show that Tsallis-Havrda-Charvat entropy can achieve better performance in
terms of prediction accuracy with some values of $\alpha$.
- Abstract(参考訳): 本稿では,医学的応用でよく見られる小さなデータセットの場合のディープネットワークのトレーニングにおいて,パラメータ化されたTsallis-Havrda-Charvatエントロピーと古典的なShannonエントロピーに基づいて損失関数を定量的に比較する。
シャノンクロスエントロピーは、画像のセグメンテーション、分類、検出に適用されるほとんどのニューラルネットワークの損失関数として広く用いられている。
シャノンエントロピーはtsallis-havrda-charvatエントロピーの特別な場合である。
本研究は, 頭頸部癌および肺癌患者の治療後の再発を予測するための医療的応用を通して, これら2つのエントロピーを比較した。
CT画像と患者情報の両方に基づいて、クロスエントロピーを損失関数として、画像再構成タスクとして繰り返し予測タスクを実行するマルチタスクディープニューラルネットワークを提案する。
Tsallis-Havrda-Charvat クロスエントロピーはパラメータ $\alpha$ を持つパラメータ化されたクロスエントロピーである。
シャノンエントロピーは、Tsallis-Havrda-Charvat entropy for $\alpha$ = 1 の特別な場合である。
このパラメータが最終予測結果に及ぼす影響について検討した。
そこで本研究では, 頭頸部癌434例, 肺癌146例の計580例について検討を行った。
その結果,Tsallis-Havrda-Charvatエントロピーは予測精度が$\alpha$の値でより優れた性能が得られることがわかった。
関連論文リスト
- ResSurv: Cancer Survival Analysis Prediction Model Based on Residual Networks [0.0]
本稿では,Deep Residual Learningに基づく新しいフレームワークを提案する。
ニューラルネットワークの損失関数については,Cox比例ハザード法を継承した。
最後に、異なる深さのResSurvネットワークを比較し、高次元の特徴を効果的に抽出できることを見出した。
論文 参考訳(メタデータ) (2024-05-11T11:50:43Z) - Statistical Properties of the Entropy from Ordinal Patterns [55.551675080361335]
大規模な時系列モデルに対するエントロピー・統計複雑性の連立分布を知っていれば、今日まで利用できない統計テストが可能になるだろう。
実正規化エントロピーが零でも1でもないモデルに対して、経験的シャノンのエントロピーの分布を特徴づける。
2つの信号が同じシャノンのエントロピーを持つ順序パターンを生成するという仮説を否定するのに十分な証拠があるかどうかを検証する。
論文 参考訳(メタデータ) (2022-09-15T23:55:58Z) - Neural network enhanced measurement efficiency for molecular
groundstates [63.36515347329037]
いくつかの分子量子ハミルトニアンの複雑な基底状態波動関数を学習するために、一般的なニューラルネットワークモデルを適用する。
ニューラルネットワークモデルを使用することで、単一コピー計測結果だけで観測対象を再構築するよりも堅牢な改善が得られます。
論文 参考訳(メタデータ) (2022-06-30T17:45:05Z) - Estimating the Entropy of Linguistic Distributions [75.20045001387685]
言語分布に対する異なるエントロピー推定器の実証的有効性について検討した。
報告された効果の大きさは、低エントロピー推定器への過度な信頼のために過大評価されていることを示す。
論文 参考訳(メタデータ) (2022-04-04T13:36:46Z) - Differentially private training of neural networks with Langevin
dynamics forcalibrated predictive uncertainty [58.730520380312676]
その結果,DP-SGD(差分偏差勾配勾配勾配勾配勾配)は,低校正・過信深層学習モデルが得られることがわかった。
これは、医療診断など、安全クリティカルな応用にとって深刻な問題である。
論文 参考訳(メタデータ) (2021-07-09T08:14:45Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Understanding Neural Networks with Logarithm Determinant Entropy
Estimator [20.92555798155807]
シャノン微分エントロピーを近似する信頼性の高い行列に基づくエントロピー推定器を提案する。
我々は,logdet estimatorに基づく有意な測定値を構築し,それと同等の実験を行い,ニューラルネットワークの動作解析に利用する。
論文 参考訳(メタデータ) (2021-05-08T14:07:58Z) - Deep learning using Havrda-Charvat entropy for classification of
pulmonary endomicroscopy [1.7849339006560667]
肺光学内視鏡検査(POE)は、リアルタイムのイメージング技術です。
poe画像シーケンスは、最大25%のシーケンスが非変形フレームであることができる。
内視鏡画像における非情報画像の自動検出法を提案する。
論文 参考訳(メタデータ) (2021-04-12T13:16:04Z) - Multi-fidelity Bayesian Neural Networks: Algorithms and Applications [0.0]
本稿では,可変忠実度の雑音データを用いて訓練できるベイズ型ニューラルネットワーク(BNN)を提案する。
関数近似の学習や、偏微分方程式(PDE)に基づく逆問題の解法に応用する。
論文 参考訳(メタデータ) (2020-12-19T02:03:53Z) - Estimation of the Mean Function of Functional Data via Deep Neural
Networks [6.230751621285321]
関数データに対して非パラメトリック回帰を行うディープニューラルネットワーク手法を提案する。
本手法は,アルツハイマー病患者における陽電子放出トモグラフィ画像の解析に用いる。
論文 参考訳(メタデータ) (2020-12-08T17:18:16Z) - DeepRite: Deep Recurrent Inverse TreatmEnt Weighting for Adjusting
Time-varying Confounding in Modern Longitudinal Observational Data [68.29870617697532]
時系列データにおける時間変化の相違に対するDeep Recurrent Inverse TreatmEnt重み付け(DeepRite)を提案する。
DeepRiteは、合成データから基底的真理を復元し、実際のデータから偏りのない処理効果を推定する。
論文 参考訳(メタデータ) (2020-10-28T15:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。