論文の概要: MONAI Label: A framework for AI-assisted Interactive Labeling of 3D
Medical Images
- arxiv url: http://arxiv.org/abs/2203.12362v2
- Date: Fri, 28 Apr 2023 22:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 20:18:08.505401
- Title: MONAI Label: A framework for AI-assisted Interactive Labeling of 3D
Medical Images
- Title(参考訳): MONAI Label:3次元医用画像のAI支援インタラクティブラベル作成のためのフレームワーク
- Authors: Andres Diaz-Pinto, Sachidanand Alle, Vishwesh Nath, Yucheng Tang,
Alvin Ihsani, Muhammad Asad, Fernando P\'erez-Garc\'ia, Pritesh Mehta, Wenqi
Li, Mona Flores, Holger R. Roth, Tom Vercauteren, Daguang Xu, Prerna Dogra,
Sebastien Ourselin, Andrew Feng and M. Jorge Cardoso
- Abstract要約: 注釈付きデータセットの欠如は、タスク固有の教師付き機械学習モデルをトレーニングする上で、大きなボトルネックとなる。
本稿では,人工知能(AI)モデルに基づくアプリケーション開発を支援する,フリーかつオープンソースなフレームワークであるmonAI Labelを紹介する。
- 参考スコア(独自算出の注目度): 49.664220687980006
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The lack of annotated datasets is a major bottleneck for training new
task-specific supervised machine learning models, considering that manual
annotation is extremely expensive and time-consuming. To address this problem,
we present MONAI Label, a free and open-source framework that facilitates the
development of applications based on artificial intelligence (AI) models that
aim at reducing the time required to annotate radiology datasets. Through MONAI
Label, researchers can develop AI annotation applications focusing on their
domain of expertise. It allows researchers to readily deploy their apps as
services, which can be made available to clinicians via their preferred user
interface. Currently, MONAI Label readily supports locally installed (3D
Slicer) and web-based (OHIF) frontends and offers two active learning
strategies to facilitate and speed up the training of segmentation algorithms.
MONAI Label allows researchers to make incremental improvements to their
AI-based annotation application by making them available to other researchers
and clinicians alike. Additionally, MONAI Label provides sample AI-based
interactive and non-interactive labeling applications, that can be used
directly off the shelf, as plug-and-play to any given dataset. Significant
reduced annotation times using the interactive model can be observed on two
public datasets.
- Abstract(参考訳): アノテーション付きデータセットの欠如は、手動アノテーションが非常に高価で時間がかかることを考慮すると、新しいタスク固有の教師付き機械学習モデルをトレーニングするための大きなボトルネックとなる。
この問題に対処するために,我々は,放射線学データセットのアノテートに必要な時間を短縮することを目的とした,人工知能(AI)モデルに基づくアプリケーション開発を容易にする,フリーかつオープンソースのフレームワークであるmonAI Labelを提案する。
MONAI Labelを通じて、研究者は専門分野に焦点を当てたAIアノテーションアプリケーションを開発することができる。
研究者は自分のアプリをサービスとして簡単にデプロイでき、好みのユーザーインターフェイスを通じて臨床医が利用できる。
現在、MONAI Labelはローカルにインストールされた(3D Slicer)とWebベースの(OHIF)フロントエンドを容易にサポートしており、セグメンテーションアルゴリズムのトレーニングを容易にし、高速化するための2つのアクティブな学習戦略を提供している。
MONAI Labelは、研究者が他の研究者や臨床医にも利用できるようにすることで、AIベースのアノテーションアプリケーションに漸進的に改善を加えることを可能にする。
さらにMONAI Labelは、任意のデータセットへのプラグアンドプレイとして、棚から直接使用可能な、AIベースのインタラクティブで非インタラクティブなラベルアプリケーションのサンプルを提供する。
2つの公開データセットで対話モデルを用いた重要なアノテーション時間の短縮が観測できる。
関連論文リスト
- LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Few Shot Rationale Generation using Self-Training with Dual Teachers [4.91890875296663]
予測ラベルのフリーテキスト説明も生成するセルフリレーゼーションモデルは、信頼できるAIアプリケーションを構築する上で重要なツールである。
タスク予測と合理化のための2つの専門教師モデルを学ぶ。
新しい損失関数Masked Label Regularization (MLR) を定式化した。
論文 参考訳(メタデータ) (2023-06-05T23:57:52Z) - Exploring a Gradient-based Explainable AI Technique for Time-Series
Data: A Case Study of Assessing Stroke Rehabilitation Exercises [5.381004207943597]
本稿では、弱い教師付きモデルと勾配に基づく説明可能なAI技術を利用するしきい値に基づく手法について述べる。
この結果は,時系列データに対する勾配に基づく説明可能なAI手法の可能性を示した。
論文 参考訳(メタデータ) (2023-05-08T08:30:05Z) - MEGAnno: Exploratory Labeling for NLP in Computational Notebooks [9.462926987075122]
本稿では,NLP実践者と研究者を対象とした新しいアノテーションフレームワークMEGAnnoを紹介する。
MEGAnnoを使えば、ユーザーは高度な検索機能と対話型提案機能を通じてデータを探索できる。
我々は,MEGAnnoのフレキシブル,探索的,効率的,シームレスなラベル付け体験を感情分析のユースケースを通じて実証する。
論文 参考訳(メタデータ) (2023-01-08T19:16:22Z) - TagLab: A human-centric AI system for interactive semantic segmentation [63.84619323110687]
TagLabは、大規模な画像に注釈をつけるための、オープンソースのAI支援ソフトウェアである。
画像アノテーションをスクラッチから支援ツールを通じてスピードアップし、カスタムの完全自動セマンティックセグメンテーションモデルを作成し、自動予測の迅速な編集を可能にする。
研究結果は,海洋生態学と建築遺産の2つの異なるシナリオで報告した。
論文 参考訳(メタデータ) (2021-12-23T16:50:06Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - TagRuler: Interactive Tool for Span-Level Data Programming by
Demonstration [1.4050836886292872]
データプログラミングは、プログラミングの方法を知っているユーザーにのみアクセス可能だった。
我々はTagRulerという新しいツールを構築し、アノテータがプログラミングなしでスパンレベルのラベリング関数を簡単に構築できるようにする。
論文 参考訳(メタデータ) (2021-06-24T04:49:42Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Unsupervised Multi-Modal Representation Learning for Affective Computing
with Multi-Corpus Wearable Data [16.457778420360537]
我々は、人間の監督への依存を減らすために、教師なしの枠組みを提案する。
提案フレームワークは2つの畳み込み自己エンコーダを用いて、ウェアラブル心電図(ECG)と電磁気放射能(EDA)信号から潜時表現を学習する。
提案手法は, 同一のデータセット上での覚醒検出を行ない, 現状の成果よりも優れていた。
論文 参考訳(メタデータ) (2020-08-24T22:01:55Z) - Dual-Teacher: Integrating Intra-domain and Inter-domain Teachers for
Annotation-efficient Cardiac Segmentation [65.81546955181781]
本稿では,新しい半教師付きドメイン適応手法,すなわちDual-Teacherを提案する。
学生モデルは、2つの教師モデルによってラベル付けされていない対象データとラベル付けされた情報源データの知識を学習する。
提案手法では, ラベルなしデータとモダリティ間データとを並列に利用でき, 性能が向上することを示した。
論文 参考訳(メタデータ) (2020-07-13T10:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。