論文の概要: Improving Model's Focus Improves Performance of Deep Learning-Based
Synthetic Face Detectors
- arxiv url: http://arxiv.org/abs/2303.00818v1
- Date: Wed, 1 Mar 2023 20:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 16:54:51.931052
- Title: Improving Model's Focus Improves Performance of Deep Learning-Based
Synthetic Face Detectors
- Title(参考訳): 深層学習型顔検出装置の性能向上のためのモデル焦点の改善
- Authors: Jacob Piland, Adam Czajka, and Christopher Sweet
- Abstract要約: エントロピーを低くすることで、モデルのフォーカスを改善することで、オープンセットのシナリオでより良く機能するモデルが得られることを示す。
また、モデルの損失関数が正規分類、モデルの焦点の低エントロピー、人間の指導力の3つの側面をブレンドした場合、最適性能が得られることを示す。
- 参考スコア(独自算出の注目度): 3.37387505927931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based models generalize better to unknown data samples after
being guided "where to look" by incorporating human perception into training
strategies. We made an observation that the entropy of the model's salience
trained in that way is lower when compared to salience entropy computed for
models training without human perceptual intelligence. Thus the question: does
further increase of model's focus, by lowering the entropy of model's class
activation map, help in further increasing the performance? In this paper we
propose and evaluate several entropy-based new loss function components
controlling the model's focus, covering the full range of the level of such
control, from none to its "aggressive" minimization. We show, using a problem
of synthetic face detection, that improving the model's focus, through lowering
entropy, leads to models that perform better in an open-set scenario, in which
the test samples are synthesized by unknown generative models. We also show
that optimal performance is obtained when the model's loss function blends
three aspects: regular classification, low-entropy of the model's focus, and
human-guided saliency.
- Abstract(参考訳): ディープラーニングベースのモデルは、人間の知覚をトレーニング戦略に組み込むことで、"見る場所"を導かれた後、未知のデータサンプルにより良い一般化を行います。
我々は,人間の知覚知を伴わないモデルトレーニングで計算されたサルテンスエントロピーと比較して,モデルサルテンスのエントロピーが低くなることを観察した。
したがって、モデルのクラスのアクティベーションマップのエントロピーを下げることで、モデルのフォーカスをさらに増やすことは、パフォーマンスの向上に役立つのだろうか?
本稿では,モデルの焦点を制御するエントロピーに基づく新たな損失関数コンポーネントを提案し,その「攻撃的」最小化まで,その制御レベルの全範囲をカバーする。
本稿では, 合成顔検出の問題を用いて, エントロピーの低下によるモデル焦点の向上が, 未知の生成モデルによりテストサンプルを合成するオープンセットシナリオにおいて, より優れた結果をもたらすことを示す。
また,モデルの損失関数が3つの側面(正規分類,モデルの焦点の低エントロピー,ヒューマンガイド付き塩分)を混合した場合,最適性能が得られることを示した。
関連論文リスト
- Data Quality Aware Approaches for Addressing Model Drift of Semantic
Segmentation Models [1.6385815610837167]
本研究では,戦闘モデルドリフトに対する2つの顕著な品質意識戦略について検討した。
前者は画像品質評価の指標を活用して、厳密に高品質なトレーニングデータを選択し、モデルの堅牢性を向上させる。
後者は、既存のモデルから学んだベクトル機能を利用して、将来のデータの選択をガイドし、モデルの以前の知識と整合させる。
論文 参考訳(メタデータ) (2024-02-11T18:01:52Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Uncovering the Hidden Cost of Model Compression [49.937417635812025]
視覚プロンプティング (VP) はコンピュータビジョンにおいて重要な伝達学習手法として登場した。
モデル間隔は視覚的プロンプトベース転送の性能に悪影響を及ぼす。
以上の結果から,疎度が下流視覚刺激モデルの校正に及ぼす影響が示唆された。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [32.752633250862694]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルを効果的に整合させるために設計された新しいフレームワーク、Reward rAnked FineTuningを紹介する。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Learned Vertex Descent: A New Direction for 3D Human Model Fitting [64.04726230507258]
画像やスキャンに適合する3次元人体モデルのための新しい最適化手法を提案する。
われわれのアプローチは、非常に異なる体型を持つ服を着た人々の基盤となる身体を捉えることができ、最先端技術と比べて大きな改善を達成できる。
LVDはまた、人間と手の3次元モデル適合にも適用でき、よりシンプルで高速な方法でSOTAに大きな改善が示される。
論文 参考訳(メタデータ) (2022-05-12T17:55:51Z) - Sample Efficient Reinforcement Learning via Model-Ensemble Exploration
and Exploitation [3.728946517493471]
MEEEは楽観的な探索と重み付けによる搾取からなるモデルアンサンブル法である。
我々の手法は、特にサンプル複雑性において、他のモデルフリーおよびモデルベース最先端手法よりも優れています。
論文 参考訳(メタデータ) (2021-07-05T07:18:20Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z) - Dynamic Model Pruning with Feedback [64.019079257231]
余分なオーバーヘッドを伴わずにスパーストレーニングモデルを生成する新しいモデル圧縮法を提案する。
CIFAR-10 と ImageNet を用いて本手法の評価を行い,得られたスパースモデルが高密度モデルの最先端性能に到達可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T15:07:08Z) - Maximum Entropy Model Rollouts: Fast Model Based Policy Optimization
without Compounding Errors [10.906666680425754]
我々は、最大エントロピーモデルロールアウト(MEMR)と呼ばれるダイナスタイルモデルに基づく強化学習アルゴリズムを提案する。
複雑なエラーをなくすために、我々はモデルを使って単一ステップのロールアウトを生成する。
論文 参考訳(メタデータ) (2020-06-08T21:38:15Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。