論文の概要: Self-Supervised Representation Learning for Detection of ACL Tear Injury
in Knee MR Videos
- arxiv url: http://arxiv.org/abs/2007.07761v3
- Date: Mon, 14 Dec 2020 12:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:01:55.306047
- Title: Self-Supervised Representation Learning for Detection of ACL Tear Injury
in Knee MR Videos
- Title(参考訳): 膝関節mriビデオにおけるacl損傷検出のための自己教師付き表現学習
- Authors: Siladittya Manna, Saumik Bhattacharya, Umapada Pal
- Abstract要約: 本稿では,MRビデオクリップから伝達可能な特徴を学習するための自己教師付き学習手法を提案する。
我々の知る限りでは、MRビデオから損傷分類タスクを実行する教師付き学習モデルには、モデルによる決定についての説明がない。
- 参考スコア(独自算出の注目度): 18.54362818156725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of deep learning based models for computer vision applications
requires large scale human annotated data which are often expensive to
generate. Self-supervised learning, a subset of unsupervised learning, handles
this problem by learning meaningful features from unlabeled image or video
data. In this paper, we propose a self-supervised learning approach to learn
transferable features from MR video clips by enforcing the model to learn
anatomical features. The pretext task models are designed to predict the
correct ordering of the jumbled image patches that the MR video frames are
divided into. To the best of our knowledge, none of the supervised learning
models performing injury classification task from MR video provide any
explanation for the decisions made by the models and hence makes our work the
first of its kind on MR video data. Experiments on the pretext task show that
this proposed approach enables the model to learn spatial context invariant
features which help for reliable and explainable performance in downstream
tasks like classification of Anterior Cruciate Ligament tear injury from knee
MRI. The efficiency of the novel Convolutional Neural Network proposed in this
paper is reflected in the experimental results obtained in the downstream task.
- Abstract(参考訳): コンピュータビジョンアプリケーションのためのディープラーニングベースのモデルの成功には、大規模な人間の注釈付きデータが必要である。
教師なし学習のサブセットである自己教師付き学習は、ラベルのない画像やビデオデータから意味のある特徴を学習することでこの問題に対処する。
本稿では,MRビデオクリップから移動可能な特徴を学習するための自己教師型学習手法を提案する。
プリテキストタスクモデルは、MRビデオフレームを分割したジャンブル画像パッチの正しい順序を予測するように設計されている。
私たちの知る限りでは、mrビデオから損傷分類タスクを実行する教師付き学習モデルには、モデルによってなされた決定についての説明は一切ありません。
プレテキストタスクを用いた実験により, 膝関節前十字靭帯損傷の分類などの下流タスクにおいて, 空間的文脈不変の特徴を学習し, 信頼性, 説明可能な性能向上に寄与することが示唆された。
本論文で提案する新しい畳み込みニューラルネットワークの効率は,下流課題で得られた実験結果に反映される。
関連論文リスト
- Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Machine Learning Method for Functional Assessment of Retinal Models [5.396946042201311]
本稿では,網膜モデルの機能評価(FA)について紹介する。
我々は従来の機械学習分類器に網膜モデルにより生成されたRCC応答を供給したFAのための機械学習手法を提案する。
その結果,データセットの構造の違いは網膜モデルの性能に大きく違いがあることが判明した。
論文 参考訳(メタデータ) (2022-02-05T00:35:38Z) - Learning from Mistakes based on Class Weighting with Application to
Neural Architecture Search [12.317568257671427]
ミスからの学習(LFM)という,シンプルで効果的な多段階最適化フレームワークを提案する。
主な目的は、将来の同様のミスを防ぐために、再重み付け技術を用いて、ターゲットタスクで効果的に実行するモデルを訓練することである。
本定式化では,モデルの検証損失を最小限に抑えてクラスウェイトを学習し,クラスワイド性能と実データにより重み付けされた画像生成装置の合成データを用いてモデルを再学習する。
論文 参考訳(メタデータ) (2021-12-01T04:56:49Z) - SSLM: Self-Supervised Learning for Medical Diagnosis from MR Video [19.5917119072985]
本稿では,磁気共鳴(MR)ビデオクリップから空間解剖学的表現を学習するための自己教師型学習手法を提案する。
提案する前文モデルは意味のある空間的文脈不変表現を学習する。
異なる実験は、プリテキストモデルによって学習された特徴が下流タスクで説明可能なパフォーマンスを提供することを示している。
論文 参考訳(メタデータ) (2021-04-21T12:01:49Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Memory-augmented Dense Predictive Coding for Video Representation
Learning [103.69904379356413]
本稿では,新しいアーキテクチャと学習フレームワーク Memory-augmented Predictive Coding (MemDPC) を提案する。
本稿では、RGBフレームからの視覚のみの自己教師付きビデオ表現学習や、教師なし光学フローからの学習、あるいはその両方について検討する。
いずれの場合も、トレーニングデータの桁数が桁違いに少ない他のアプローチに対して、最先端または同等のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-08-03T17:57:01Z) - Self-supervised Representation Learning for Ultrasound Video [18.515314344284445]
本稿では,医用画像から有意義かつ伝達可能な表現を学習するための自己教師型学習手法を提案する。
我々は、データ自体から自由に監視することで、解剖学的タスクに対処するようモデルに強制する。
胎児超音波ビデオ実験により,提案手法が有意義で強い表現を効果的に学習できることが示唆された。
論文 参考訳(メタデータ) (2020-02-28T23:00:26Z) - Object Relational Graph with Teacher-Recommended Learning for Video
Captioning [92.48299156867664]
本稿では,新しいモデルと効果的なトレーニング戦略の両方を含む完全なビデオキャプションシステムを提案する。
具体的には,オブジェクトリレーショナルグラフ(ORG)に基づくエンコーダを提案する。
一方,教師推薦学習(TRL)手法を設計し,成功した外部言語モデル(ELM)をフル活用し,豊富な言語知識をキャプションモデルに統合する。
論文 参考訳(メタデータ) (2020-02-26T15:34:52Z) - Modality Compensation Network: Cross-Modal Adaptation for Action
Recognition [77.24983234113957]
異なるモダリティの関係を探索するためのモダリティ補償ネットワーク(MCN)を提案する。
我々のモデルは、適応表現学習を実現するために、モーダリティ適応ブロックによって、ソースおよび補助モーダリティからのデータをブリッジする。
実験の結果,MCNは4つの広く使用されている行動認識ベンチマークにおいて,最先端のアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-01-31T04:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。