論文の概要: CYBORG: Blending Human Saliency Into the Loss Improves Deep Learning
- arxiv url: http://arxiv.org/abs/2112.00686v1
- Date: Wed, 1 Dec 2021 18:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:54:14.925385
- Title: CYBORG: Blending Human Saliency Into the Loss Improves Deep Learning
- Title(参考訳): CYBORG: 人脈を失うことでディープラーニングが向上
- Authors: Aidan Boyd, Patrick Tinsley, Kevin Bowyer, Adam Czajka
- Abstract要約: 本稿では,脳の一般性を高めるための初となるトレーニング戦略を提案する。
新しいトレーニングアプローチでは、人間の注釈付き唾液マップをCYBORG損失関数に組み込む。
合成顔検出作業の結果,CYBORG損失は,GAN(Generative Adversarial Networks)6つの顔画像から生成した複数の分類ネットワークアーキテクチャから生成した未知のサンプルに対して,顕著な性能向上をもたらすことが示された。
- 参考スコア(独自算出の注目度): 5.092711491848192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can deep learning models achieve greater generalization if their training is
guided by reference to human perceptual abilities? And how can we implement
this in a practical manner? This paper proposes a first-ever training strategy
to ConveY Brain Oversight to Raise Generalization (CYBORG). This new training
approach incorporates human-annotated saliency maps into a CYBORG loss function
that guides the model towards learning features from image regions that humans
find salient when solving a given visual task. The Class Activation Mapping
(CAM) mechanism is used to probe the model's current saliency in each training
batch, juxtapose model saliency with human saliency, and penalize the model for
large differences. Results on the task of synthetic face detection show that
the CYBORG loss leads to significant improvement in performance on unseen
samples consisting of face images generated from six Generative Adversarial
Networks (GANs) across multiple classification network architectures. We also
show that scaling to even seven times as much training data with standard loss
cannot beat the accuracy of CYBORG loss. As a side effect, we observed that the
addition of explicit region annotation to the task of synthetic face detection
increased human classification performance. This work opens a new area of
research on how to incorporate human visual saliency into loss functions. All
data, code and pre-trained models used in this work are offered with this
paper.
- Abstract(参考訳): 深層学習モデルは、人間の知覚能力を参照してトレーニングを指導すればより一般化できるのか?
そして、どのように実践的な方法で実装できるでしょうか?
本稿では,脳の全般性向上(CYBORG)に対する初となるトレーニング戦略を提案する。
この新しいトレーニングアプローチでは、人間の注釈付きサルジェンシーマップをサイボーグ損失関数に組み込んで、与えられた視覚的タスクを解決する際に、人間がサルエントを見出すイメージ領域から、モデルを学習する方向に導く。
クラスアクティベーションマッピング(CAM)メカニズムは、トレーニングバッチ毎にモデルの現在のサリエンシを調査するために使用され、人間のサリエンシと並置モデルのサリエンシを調整し、大きな違いのためにモデルをペナルティ化する。
合成顔検出作業の結果,CYBORG損失は,GAN(Generative Adversarial Networks)6つの顔画像から生成した複数の分類ネットワークアーキテクチャから生成した未知のサンプルに対して,顕著な性能向上をもたらすことが示された。
また、標準損失の7倍のトレーニングデータへのスケーリングがCYBORG損失の精度を上回り得ないことも示している。
副作用として,合成顔検出タスクに明示的な領域アノテーションを付加することで,人間の分類性能が向上した。
この研究は、人間の視覚的サリエンシを損失関数に組み込む方法についての新しい研究領域を開く。
本論文では,本研究で使用するデータ,コード,事前学習モデルについて述べる。
関連論文リスト
- Training Better Deep Learning Models Using Human Saliency [11.295653130022156]
本研究では、画像の正常領域に関する人間の判断が、ディープ畳み込みニューラルネットワーク(DCNN)トレーニングにどのように導入できるかを考察する。
本稿では,ConveYs Brain Oversight to raise Generalization (CYBORG) における損失関数の新たな構成要素を提案する。
論文 参考訳(メタデータ) (2024-10-21T16:52:44Z) - Reduced Jeffries-Matusita distance: A Novel Loss Function to Improve
Generalization Performance of Deep Classification Models [0.0]
本稿では,深層分類モデルの学習における損失関数として,Reduced Jeffries-Matusitaという距離を導入する。
その結果、新しい距離測定はトレーニングプロセスを著しく安定化させ、一般化能力を高め、精度とF1スコアの指標におけるモデルの性能を向上させることを示した。
論文 参考訳(メタデータ) (2024-03-13T10:51:38Z) - Appearance Debiased Gaze Estimation via Stochastic Subject-Wise
Adversarial Learning [33.55397868171977]
外観に基づく視線推定はコンピュータビジョンにおいて注目されており、様々な深層学習技術を用いて顕著な改善が達成されている。
本稿では,被験者の外観を一般化するネットワークを訓練する,SAZE学習という新しい枠組みを提案する。
実験の結果,MPIIGazeデータセットとEyeDiapデータセットの3.89と4.42をそれぞれ達成した。
論文 参考訳(メタデータ) (2024-01-25T00:23:21Z) - What Makes Pre-Trained Visual Representations Successful for Robust
Manipulation? [57.92924256181857]
照明やシーンテクスチャの微妙な変化の下では,操作や制御作業のために設計された視覚表現が必ずしも一般化されないことがわかった。
創発的セグメンテーション能力は,ViTモデルにおける分布外一般化の強い予測因子であることがわかった。
論文 参考訳(メタデータ) (2023-11-03T18:09:08Z) - MENTOR: Human Perception-Guided Pretraining for Increased Generalization [5.596752018167751]
MENTOR (huMan pErceptioN-guided preTraining fOr increased geneRalization) を紹介する。
我々は、クラスラベルを使わずに、入力された画像からヒトの唾液マップを学習するためにオートエンコーダを訓練する。
我々は、デコーダ部分を取り除き、エンコーダの上に分類層を追加し、従来の新しいモデルを微調整する。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - Reducing Training Demands for 3D Gait Recognition with Deep Koopman
Operator Constraints [8.382355998881879]
我々は、周期的な歩行の性質に対して教師なしの運動規則化を提供する、Koopman演算子理論に基づく新しい線形力学系(LDS)モジュールと損失を導入する。
また、3Dモデリング手法は他の3D歩行法よりも、通常のバッグキャリングや衣服の変化条件下での視点変化を克服する方が優れていることも示している。
論文 参考訳(メタデータ) (2023-08-14T21:39:33Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Multi-Agent Semi-Siamese Training for Long-tail and Shallow Face
Learning [54.13876727413492]
多くの現実世界の顔認識シナリオでは、トレーニングデータセットの深さは浅いため、IDごとに2つの顔画像しか利用できません。
非均一なサンプルの増加により、このような問題はより一般的なケース、すなわち長い尾の顔学習に変換される。
これらの問題に対処するために,マルチエージェントセミシアントレーニング(masst)という高度なソリューションを導入する。
広範な実験と比較は、長い尾と浅い顔学習のためのMASSTの利点を示しています。
論文 参考訳(メタデータ) (2021-05-10T04:57:32Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。