論文の概要: Teaching AI to Teach: Leveraging Limited Human Salience Data Into
Unlimited Saliency-Based Training
- arxiv url: http://arxiv.org/abs/2306.05527v2
- Date: Thu, 9 Nov 2023 18:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 18:11:00.678882
- Title: Teaching AI to Teach: Leveraging Limited Human Salience Data Into
Unlimited Saliency-Based Training
- Title(参考訳): 教師にAIを教える: 制限なしのサリエンス・トレーニングに限定されたサリエンス・データを活用する
- Authors: Colton R. Crum, Aidan Boyd, Kevin Bowyer, Adam Czajka
- Abstract要約: 教師モデルのサリエンシマップを用いて、付加的なデータに注釈を付けるために、「教師」モデル(少量の人間注記データに基づいて訓練された)を用いる。
次に、"学生"モデルは、大量の注釈付きトレーニングデータを使用して訓練される。
教員-学生の訓練パラダイムによって達成される正確さを,(1)利用可能なすべての人的サリエンスアノテーションを用いたトレーニング,(2)人的サリエンスアノテーションを使わずに利用可能なすべてのトレーニングデータを用いたトレーニングと比較した。
- 参考スコア(独自算出の注目度): 6.038173052593495
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models have shown increased accuracy in classification tasks
when the training process incorporates human perceptual information. However, a
challenge in training human-guided models is the cost associated with
collecting image annotations for human salience. Collecting annotation data for
all images in a large training set can be prohibitively expensive. In this
work, we utilize "teacher" models (trained on a small amount of human-annotated
data) to annotate additional data by means of teacher models' saliency maps.
Then, "student" models are trained using the larger amount of annotated
training data. This approach makes it possible to supplement a limited number
of human-supplied annotations with an arbitrarily large number of
model-generated image annotations. We compare the accuracy achieved by our
teacher-student training paradigm with (1) training using all available human
salience annotations, and (2) using all available training data without human
salience annotations. We use synthetic face detection and fake iris detection
as example challenging problems, and report results across four model
architectures (DenseNet, ResNet, Xception, and Inception), and two saliency
estimation methods (CAM and RISE). Results show that our teacher-student
training paradigm results in models that significantly exceed the performance
of both baselines, demonstrating that our approach can usefully leverage a
small amount of human annotations to generate salience maps for an arbitrary
amount of additional training data.
- Abstract(参考訳): 機械学習モデルでは、トレーニングプロセスが人間の知覚情報を組み込むと、分類タスクの精度が向上している。
しかし、人間誘導モデルの訓練における課題は、人間のサリエンスのための画像アノテーション収集に伴うコストである。
大規模なトレーニングセット内のすべての画像に対するアノテーションデータ収集は,極めて高価である。
本研究では,教師モデルの給与マップを用いて追加データの注釈付けを行うために,教師モデル(少量の人間注釈データに基づく学習)を用いた。
そして、大量の注釈付きトレーニングデータを使って「学生」モデルを訓練する。
このアプローチにより、限られた数の人為的アノテーションを任意の数のモデル生成画像アノテーションで補うことができる。
本研究は,教師・生徒の学習パラダイムが達成した正確性と,(1)すべての人的敬礼アノテーションを用いた訓練,(2)人的敬礼アノテーションを使わずに利用可能なすべての訓練データとを比較した。
本研究では, 合成顔検出と偽虹彩検出を課題として用い, 4つのモデルアーキテクチャ(DenseNet, ResNet, Xception, Inception)と2つのサリエンシ推定手法(CAM, RISE)で結果を報告する。
その結果,教師の学習パラダイムは両ベースラインのパフォーマンスを大幅に上回るモデルとなり,本手法は少量の人的アノテーションを有効活用し,任意の量のトレーニングデータに対するサリエンスマップを生成することができることを示した。
関連論文リスト
- EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - Grains of Saliency: Optimizing Saliency-based Training of Biometric Attack Detection Models [4.215251065887862]
人間の視覚的サリエンシは、注意機構、強化されたトレーニングサンプル、または損失関数の人間の知覚関連コンポーネントを通じてモデルトレーニングに統合することができる。
彼らの成功にもかかわらず、しかし一見無視されているように思われるが、サリエンスベースのトレーニングの側面は、サリエンスグラニュリティのレベルである。
本稿では, 簡易かつ効果的な塩分後処理技術を用いて, PADと合成顔検出の一般化能力を向上できることを実証する。
論文 参考訳(メタデータ) (2024-05-01T17:27:11Z) - Self-Training and Multi-Task Learning for Limited Data: Evaluation Study
on Object Detection [4.9914667450658925]
実験結果から,マルチタスク学生の学習に不明瞭なデータを持つ弱教師を用いた場合のパフォーマンス向上が示唆された。
限られた設定にもかかわらず、実験結果はマルチタスクの知識蒸留と自己学習の可能性を示していると信じている。
論文 参考訳(メタデータ) (2023-09-12T14:50:14Z) - Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Training Data Leakage Analysis in Language Models [6.843491191969066]
本稿では,強大かつ現実的な脅威モデルの下で漏洩する可能性のあるトレーニングデータ中のユーザコンテンツを識別する手法を提案する。
本研究では,トレーニングデータに固有の文断片を生成するモデルの能力を測定することにより,ユーザレベルのデータ漏洩を定量化する2つの指標を提案する。
論文 参考訳(メタデータ) (2021-01-14T00:57:32Z) - Learning to Reweight with Deep Interactions [104.68509759134878]
本稿では,教師モデルに内部状態を提供する改良型データ再重み付けアルゴリズムを提案する。
クリーン/ノイズラベルとニューラルマシン翻訳を用いた画像分類実験は、我々のアルゴリズムが従来の手法よりも大幅に改善されていることを実証的に実証した。
論文 参考訳(メタデータ) (2020-07-09T09:06:31Z) - Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences
for Urban Scene Segmentation [57.68890534164427]
本研究では,未ラベル映像シーケンスと追加画像の半教師付き学習を利用して,都市景観セグメンテーションの性能を向上させることができるかどうかを問う。
我々は単にラベルのないデータに対して擬似ラベルを予測し、人間の注釈付きデータと擬似ラベル付きデータの両方でその後のモデルを訓練する。
我々のNaive-Studentモデルは、このような単純で効果的な反復的半教師付き学習で訓練され、3つのCityscapesベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-05-20T18:00:05Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Learning from Imperfect Annotations [15.306536555936692]
現在、多くの機械学習システムは、大量の人間の注釈付きデータに基づいて訓練されている。
モデルトレーニングとアグリゲーションステップをマージすることを可能にする新しいエンドツーエンドフレームワークを提案する。
アノテーションを集約する現在の最先端アプローチに比べて、精度が最大25%向上していることを示す。
論文 参考訳(メタデータ) (2020-04-07T15:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。