論文の概要: Batch Transformer Architecture: Case of Synthetic Image Generation for Emotion Expression Facial Recognition
- arxiv url: http://arxiv.org/abs/2511.11754v1
- Date: Thu, 13 Nov 2025 19:45:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.284134
- Title: Batch Transformer Architecture: Case of Synthetic Image Generation for Emotion Expression Facial Recognition
- Title(参考訳): バッチトランスフォーマアーキテクチャ:感情表現顔認識のための合成画像生成の事例
- Authors: Stanislav Selitskiy,
- Abstract要約: 暗黙的なスパース方式で新しいトランスフォーマー変分アーキテクチャを提案する。
シーケンシャルなエンティティやバッチなエンティティに注目するのではなく、"重要な"次元に注目する。
顔認識タスクの合成画像生成において,提案アーキテクチャを検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel Transformer variation architecture is proposed in the implicit sparse style. Unlike "traditional" Transformers, instead of attention to sequential or batch entities in their entirety of whole dimensionality, in the proposed Batch Transformers, attention to the "important" dimensions (primary components) is implemented. In such a way, the "important" dimensions or feature selection allows for a significant reduction of the bottleneck size in the encoder-decoder ANN architectures. The proposed architecture is tested on the synthetic image generation for the face recognition task in the case of the makeup and occlusion data set, allowing for increased variability of the limited original data set.
- Abstract(参考訳): 暗黙的なスパース方式で新しいトランスフォーマー変分アーキテクチャを提案する。
従来の「変換器」とは違い、提案されたバッチ変換器では、全次元のシーケンシャルなエンティティやバッチなエンティティに注意を向ける代わりに、「重要な」次元(一次成分)に注意を向ける。
このようにして、"重要な"次元や特徴の選択は、エンコーダ・デコーダANNアーキテクチャにおけるボトルネックサイズの大幅な削減を可能にする。
提案アーキテクチャは, 顔認証タスクの合成画像生成において, メイクアップやオクルージョンデータセットの場合にテストを行い, 限られた原データセットの変動性を高めることができる。
関連論文リスト
- Plain Transformers Can be Powerful Graph Learners [64.50059165186701]
研究者たちは、Transformerをグラフ学習に移行しようとしたが、ほとんどの高度なGraph Transformerは、普通のTransformerから遠く離れている。
この研究は、普通のTransformerアーキテクチャが強力なグラフ学習者になれることを示した。
論文 参考訳(メタデータ) (2025-04-17T02:06:50Z) - Primus: Enforcing Attention Usage for 3D Medical Image Segmentation [1.2015918742353526]
現状のTransformerベースのセグメンテーションモデルを分析し,重要な欠点を同定する。
完全トランスフォーマーベースセグメンテーションアーキテクチャであるPrmusを導入する。
Primusは現在のTransformerベースのメソッドを超え、パブリックデータセットの最先端の畳み込みモデルと競合する。
論文 参考訳(メタデータ) (2025-03-03T18:56:29Z) - Vision Transformer with Quadrangle Attention [76.35955924137986]
窓面に基づく注意を一般的な四角形定式化に拡張する新しい四角形注意法(QA)を提案する。
提案手法では,既定のウィンドウを対象の四角形に変換するために,変換行列を予測し,エンドツーエンドで学習可能な四角形回帰モジュールを用いる。
QAをプレーンかつ階層的な視覚変換器に統合し、QFormerという名の新しいアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-03-27T11:13:50Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - PPT Fusion: Pyramid Patch Transformerfor a Case Study in Image Fusion [37.993611194758195]
画像から意味情報を抽出する問題に対処するため,Patch Pyramid Transformer(PPT)を提案する。
実験により, 現状の核融合法に対して優れた性能を示した。
論文 参考訳(メタデータ) (2021-07-29T13:57:45Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。