論文の概要: Modular Neural Network Approaches for Surgical Image Recognition
- arxiv url: http://arxiv.org/abs/2307.08880v1
- Date: Mon, 17 Jul 2023 22:28:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:58:53.066507
- Title: Modular Neural Network Approaches for Surgical Image Recognition
- Title(参考訳): モジュラーニューラルネットワークによる手術画像認識
- Authors: Nosseiba Ben Salem, Younes Bennani, Joseph Karkazan, Abir Barbara,
Charles Dacheux, Thomas Gregory
- Abstract要約: 本稿では,DCSS不安定性分類のためのモジュール型学習の異なるアーキテクチャを導入,評価する。
実験の結果,モジュール型学習は非モジュール型システムと比較して性能が向上することがわかった。
第2部では,肩関節鏡画像への自己訓練によるデータラベリングとセグメンテーションのアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning-based applications have seen a lot of success in recent years.
Text, audio, image, and video have all been explored with great success using
deep learning approaches. The use of convolutional neural networks (CNN) in
computer vision, in particular, has yielded reliable results. In order to
achieve these results, a large amount of data is required. However, the dataset
cannot always be accessible. Moreover, annotating data can be difficult and
time-consuming. Self-training is a semi-supervised approach that managed to
alleviate this problem and achieve state-of-the-art performances. Theoretical
analysis even proved that it may result in a better generalization than a
normal classifier. Another problem neural networks can face is the increasing
complexity of modern problems, requiring a high computational and storage cost.
One way to mitigate this issue, a strategy that has been inspired by human
cognition known as modular learning, can be employed. The principle of the
approach is to decompose a complex problem into simpler sub-tasks. This
approach has several advantages, including faster learning, better
generalization, and enables interpretability.
In the first part of this paper, we introduce and evaluate different
architectures of modular learning for Dorsal Capsulo-Scapholunate Septum (DCSS)
instability classification. Our experiments have shown that modular learning
improves performances compared to non-modular systems. Moreover, we found that
weighted modular, that is to weight the output using the probabilities from the
gating module, achieved an almost perfect classification. In the second part,
we present our approach for data labeling and segmentation with self-training
applied on shoulder arthroscopy images.
- Abstract(参考訳): 近年、ディープラーニングベースのアプリケーションは大きな成功を収めている。
テキスト、オーディオ、画像、ビデオはすべて、ディープラーニングアプローチを使って大きな成功を収めています。
コンピュータビジョンにおける畳み込みニューラルネットワーク(CNN)の使用は、特に信頼性の高い結果をもたらしている。
これらの結果を得るためには、大量のデータが必要である。
しかし、データセットには常にアクセスできない。
さらに、データのアノテートも難しく、時間がかかります。
セルフトレーニングは、この問題を緩和し、最先端のパフォーマンスを達成するための、半教師付きアプローチである。
理論的解析は、通常の分類器よりもより良い一般化をもたらすことを証明した。
ニューラルネットワークが直面するもうひとつの問題は、現代的な問題の複雑さが増し、高い計算とストレージコストが要求されることだ。
この問題を軽減する一つの方法は、モジュール学習として知られる人間の認知に触発された戦略である。
このアプローチの原則は、複雑な問題を単純なサブタスクに分解することである。
このアプローチには、学習の高速化、一般化の改善、解釈可能性の向上など、いくつかのメリットがある。
本稿では,DCSS(Dorsal Capsulo-Scapholunate Septum)不安定度分類のためのモジュール型学習の異なるアーキテクチャを紹介し,評価する。
実験により,モジュラー学習は非モジュラーシステムに比べて性能が向上することを示した。
さらに,重み付きモジュラーは,ゲーティングモジュールの確率を用いて出力を重み付けすることであり,ほぼ完全な分類を達成した。
第2部では,肩関節鏡画像への自己訓練によるデータラベリングとセグメンテーションのアプローチを提案する。
関連論文リスト
- Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Neural Routing in Meta Learning [9.070747377130472]
入力タスクに条件付けされたモデルの部分のみを選択的に使用することにより,現在のメタ学習アルゴリズムのモデル性能を向上させることを目指している。
本稿では、バッチ正規化層におけるスケーリング係数を活用することにより、深層畳み込みニューラルネットワーク(CNN)におけるタスク依存の動的ニューロン選択を研究するアプローチについて述べる。
提案手法であるニューラルルーティング・イン・メタラーニング(NRML)は,数ショットの分類タスクにおいて,既知のメタラーニングベースラインの1つである。
論文 参考訳(メタデータ) (2022-10-14T16:31:24Z) - EVC-Net: Multi-scale V-Net with Conditional Random Fields for Brain
Extraction [3.4376560669160394]
EVC-Netは各エンコーダブロックに低スケール入力を追加する。
条件付きランダムフィールドは、ネットワークの出力を洗練するための追加ステップとしてここで再導入される。
その結果、限られたトレーニングリソースであっても、EVC-Netはより高いDice CoefficientとJaccard Indexを達成することがわかった。
論文 参考訳(メタデータ) (2022-06-06T18:21:21Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Neural Function Modules with Sparse Arguments: A Dynamic Approach to
Integrating Information across Layers [84.57980167400513]
Neural Function Modules (NFM)は、ディープラーニングに同じ構造機能を導入することを目的としている。
トップダウンとボトムアップのフィードバックを組み合わせたフィードフォワードネットワークのコンテキストにおける作業のほとんどは、分類の問題に限られている。
私たちの仕事の重要な貢献は、フレキシブルなアルゴリズムで注意、疎結合、トップダウン、ボトムアップのフィードバックを組み合わせることです。
論文 参考訳(メタデータ) (2020-10-15T20:43:17Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Biologically-Motivated Deep Learning Method using Hierarchical
Competitive Learning [0.0]
本稿では,CNNの事前学習方法として,前方伝播信号のみを必要とする教師なしの競争学習を導入することを提案する。
提案手法は,例えば時系列や医療データなど,ラベルの粗末なデータに対して有用である。
論文 参考訳(メタデータ) (2020-01-04T20:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。