論文の概要: Improving Model's Focus Improves Performance of Deep Learning-Based
Synthetic Face Detectors
- arxiv url: http://arxiv.org/abs/2303.00818v1
- Date: Wed, 1 Mar 2023 20:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:54:51.931052
- Title: Improving Model's Focus Improves Performance of Deep Learning-Based
Synthetic Face Detectors
- Title(参考訳): 深層学習型顔検出装置の性能向上のためのモデル焦点の改善
- Authors: Jacob Piland, Adam Czajka, and Christopher Sweet
- Abstract要約: エントロピーを低くすることで、モデルのフォーカスを改善することで、オープンセットのシナリオでより良く機能するモデルが得られることを示す。
また、モデルの損失関数が正規分類、モデルの焦点の低エントロピー、人間の指導力の3つの側面をブレンドした場合、最適性能が得られることを示す。
- 参考スコア(独自算出の注目度): 3.37387505927931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based models generalize better to unknown data samples after
being guided "where to look" by incorporating human perception into training
strategies. We made an observation that the entropy of the model's salience
trained in that way is lower when compared to salience entropy computed for
models training without human perceptual intelligence. Thus the question: does
further increase of model's focus, by lowering the entropy of model's class
activation map, help in further increasing the performance? In this paper we
propose and evaluate several entropy-based new loss function components
controlling the model's focus, covering the full range of the level of such
control, from none to its "aggressive" minimization. We show, using a problem
of synthetic face detection, that improving the model's focus, through lowering
entropy, leads to models that perform better in an open-set scenario, in which
the test samples are synthesized by unknown generative models. We also show
that optimal performance is obtained when the model's loss function blends
three aspects: regular classification, low-entropy of the model's focus, and
human-guided saliency.
- Abstract(参考訳): ディープラーニングベースのモデルは、人間の知覚をトレーニング戦略に組み込むことで、"見る場所"を導かれた後、未知のデータサンプルにより良い一般化を行います。
我々は,人間の知覚知を伴わないモデルトレーニングで計算されたサルテンスエントロピーと比較して,モデルサルテンスのエントロピーが低くなることを観察した。
したがって、モデルのクラスのアクティベーションマップのエントロピーを下げることで、モデルのフォーカスをさらに増やすことは、パフォーマンスの向上に役立つのだろうか?
本稿では,モデルの焦点を制御するエントロピーに基づく新たな損失関数コンポーネントを提案し,その「攻撃的」最小化まで,その制御レベルの全範囲をカバーする。
本稿では, 合成顔検出の問題を用いて, エントロピーの低下によるモデル焦点の向上が, 未知の生成モデルによりテストサンプルを合成するオープンセットシナリオにおいて, より優れた結果をもたらすことを示す。
また,モデルの損失関数が3つの側面(正規分類,モデルの焦点の低エントロピー,ヒューマンガイド付き塩分)を混合した場合,最適性能が得られることを示した。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Strong Model Collapse [16.071600606637908]
本稿では,モデル崩壊現象の強い形態が存在することを示す。
以上の結果から,最小の合成データであっても,モデル崩壊につながる可能性が示唆された。
大規模言語モデルの学習における現在の傾向に沿ったアプローチであるモデルサイズの増加が,モデル崩壊を悪化させるか緩和させるかを検討する。
論文 参考訳(メタデータ) (2024-10-07T08:54:23Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [32.752633250862694]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルを効果的に整合させるために設計された新しいフレームワーク、Reward rAnked FineTuningを紹介する。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Learned Vertex Descent: A New Direction for 3D Human Model Fitting [64.04726230507258]
画像やスキャンに適合する3次元人体モデルのための新しい最適化手法を提案する。
われわれのアプローチは、非常に異なる体型を持つ服を着た人々の基盤となる身体を捉えることができ、最先端技術と比べて大きな改善を達成できる。
LVDはまた、人間と手の3次元モデル適合にも適用でき、よりシンプルで高速な方法でSOTAに大きな改善が示される。
論文 参考訳(メタデータ) (2022-05-12T17:55:51Z) - Sample Efficient Reinforcement Learning via Model-Ensemble Exploration
and Exploitation [3.728946517493471]
MEEEは楽観的な探索と重み付けによる搾取からなるモデルアンサンブル法である。
我々の手法は、特にサンプル複雑性において、他のモデルフリーおよびモデルベース最先端手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-05T07:18:20Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - Maximum Entropy Model Rollouts: Fast Model Based Policy Optimization
without Compounding Errors [10.906666680425754]
我々は、最大エントロピーモデルロールアウト(MEMR)と呼ばれるダイナスタイルモデルに基づく強化学習アルゴリズムを提案する。
複雑なエラーをなくすために、我々はモデルを使って単一ステップのロールアウトを生成する。
論文 参考訳(メタデータ) (2020-06-08T21:38:15Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。