論文の概要: Embracing Annotation Efficient Learning (AEL) for Digital Pathology and
Natural Images
- arxiv url: http://arxiv.org/abs/2212.00470v1
- Date: Thu, 1 Dec 2022 12:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:23:42.190829
- Title: Embracing Annotation Efficient Learning (AEL) for Digital Pathology and
Natural Images
- Title(参考訳): デジタル病理と自然画像のためのアノテーション効率学習(AEL)の導入
- Authors: Eu Wern Teh
- Abstract要約: 今日の世界では、データ生成の速度はデータアノテーションの速度を大きく上回っています。
効率的な学習(Efficient Learning)は、より少ないアノテーションでモデルを効果的に訓練するアルゴリズムの研究である。
本論文では, AEL を扱うための 5 つの手法について考察する。
- 参考スコア(独自算出の注目度): 2.1067139116005595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Jitendra Malik once said, "Supervision is the opium of the AI researcher".
Most deep learning techniques heavily rely on extreme amounts of human labels
to work effectively. In today's world, the rate of data creation greatly
surpasses the rate of data annotation. Full reliance on human annotations is
just a temporary means to solve current closed problems in AI. In reality, only
a tiny fraction of data is annotated. Annotation Efficient Learning (AEL) is a
study of algorithms to train models effectively with fewer annotations. To
thrive in AEL environments, we need deep learning techniques that rely less on
manual annotations (e.g., image, bounding-box, and per-pixel labels), but learn
useful information from unlabeled data. In this thesis, we explore five
different techniques for handling AEL.
- Abstract(参考訳): ジテンドラ・マリクはかつて「スーパービジョンはAI研究者のアヘンだ」と言った。
ほとんどのディープラーニング技術は、効果的に働くために極度の量の人間ラベルに大きく依存している。
現在の世界では、データ生成の速度がデータアノテーションの速度を大きく上回っている。
人間のアノテーションに完全に依存することは、AIの現在のクローズドな問題を解決する一時的な手段にすぎない。
実際には、ほんのわずかなデータに注釈を付けるだけである。
AEL(Annotation Efficient Learning)は、より少ないアノテーションでモデルを効果的に訓練するアルゴリズムの研究である。
AEL環境で成長するには、手動のアノテーション(画像、バウンディングボックス、ピクセルごとのラベルなど)に頼らず、ラベルのないデータから有用な情報を学ぶ深層学習技術が必要である。
本論文では, AEL を扱うための 5 つの手法について考察する。
関連論文リスト
- EchoDFKD: Data-Free Knowledge Distillation for Cardiac Ultrasound Segmentation using Synthetic Data [0.0]
本稿では, 実データおよび合成データに基づいて, 知識蒸留を専門に訓練したモデルを提案する。
我々は,終末期および終末期のフレームを識別するタスクにおいて,最先端のSOTA(State-of-the-art)値を得る。
また,人間のアノテーションを必要とせず,大規模な補助モデルに依存する新たな評価手法を提案する。
論文 参考訳(メタデータ) (2024-09-11T18:38:02Z) - Zero-shot Active Learning Using Self Supervised Learning [11.28415437676582]
我々は,反復的なプロセスを必要としないモデル非依存の新たなアクティブラーニング手法を提案する。
アクティブラーニングの課題に自己指導型学習機能を活用することを目的としている。
論文 参考訳(メタデータ) (2024-01-03T11:49:07Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Gradient Imitation Reinforcement Learning for General Low-Resource
Information Extraction [80.64518530825801]
本研究では,ラベル付きデータに対する勾配降下方向を模倣するために擬似ラベル付きデータを奨励するグラディエント強化学習法(GIRL)を開発した。
GIRLを利用して、低リソース設定ですべてのIEサブタスク(エンティティ認識、関係抽出、イベント抽出)を解決します。
論文 参考訳(メタデータ) (2022-11-11T05:37:19Z) - Learning Instructions with Unlabeled Data for Zero-Shot Cross-Task
Generalization [68.91386402390403]
本研究では,学習中の命令をよりよく活用するために,Unlabeled Data Augmented Instruction Tuning (UDIT)を提案する。
タスクやデータセットのさまざまなシナリオにおいて,UDITの有効性を示すための広範な実験を行う。
論文 参考訳(メタデータ) (2022-10-17T15:25:24Z) - Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - Assisted Text Annotation Using Active Learning to Achieve High Quality
with Little Effort [9.379650501033465]
研究者は、手動の注釈だけで、大規模で高品質な注釈付きデータセットを作成できるツールを提案する。
我々は、アクティブラーニング(AL)アプローチと事前訓練された言語モデルを組み合わせて、アノテーションカテゴリを半自動で識別する。
予備的な結果から,ALを用いることで,複雑なフレームや微妙なフレームを正しく分類するアノテーションの数が大幅に削減されることがわかった。
論文 参考訳(メタデータ) (2021-12-15T13:14:58Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。