論文の概要: CorrLoss: Integrating Co-Occurrence Domain Knowledge for Affect
Recognition
- arxiv url: http://arxiv.org/abs/2210.17233v1
- Date: Mon, 31 Oct 2022 11:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:54:01.291150
- Title: CorrLoss: Integrating Co-Occurrence Domain Knowledge for Affect
Recognition
- Title(参考訳): CorrLoss: 影響認識のための共起ドメイン知識の統合
- Authors: Ines Rieger, Jaspar Pahl, Bettina Finzel, Ute Schmid
- Abstract要約: 本稿では,認知に影響を及ぼすニューラルネットワークのトレーニングを強化するために,損失関数の制約として,顔の動きの共起に関するドメイン知識を統合することを提案する。
共起パターンはデータセット間で類似する傾向があるため,本手法の適用によりモデルの一般化性が向上し,オーバーフィッティングのリスクが低くなる可能性がある。
- 参考スコア(独自算出の注目度): 0.8889304968879161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are widely adopted, yet the integration of domain knowledge
is still underutilized. We propose to integrate domain knowledge about
co-occurring facial movements as a constraint in the loss function to enhance
the training of neural networks for affect recognition. As the co-ccurrence
patterns tend to be similar across datasets, applying our method can lead to a
higher generalizability of models and a lower risk of overfitting. We
demonstrate this by showing performance increases in cross-dataset testing for
various datasets. We also show the applicability of our method for calibrating
neural networks to different facial expressions.
- Abstract(参考訳): ニューラルネットワークは広く採用されているが、ドメイン知識の統合はまだ未利用である。
本研究では,共生顔の動きに関するドメイン知識を損失関数の制約として統合し,感情認識のためのニューラルネットワークのトレーニングを強化することを提案する。
共起パターンはデータセット間で類似する傾向があるため,本手法の適用によりモデルの一般化性が向上し,オーバーフィッティングのリスクが低くなる。
各種データセットに対するクロスデータセットテストの性能向上を示すことでこれを実証する。
また,異なる表情に対するニューラルネットワークの校正手法の適用性を示す。
関連論文リスト
- Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Cross-Domain Similarity Learning for Face Recognition in Unseen Domains [90.35908506994365]
本研究では,cdt(cross-domain triplet, クロスドメイントリプレット)の損失を推測する新しいクロスドメインメトリック学習損失法を提案する。
CDT損失は、一つのドメインからコンパクトな特徴クラスタを強制することによって意味論的に意味のある特徴の学習を促進する。
本手法では,トレーニング中,注意深いハードペアサンプルマイニングおよびフィルタリング戦略は必要としない。
論文 参考訳(メタデータ) (2021-03-12T19:48:01Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。