論文の概要: Enhancing Transformers Through Conditioned Embedded Tokens
- arxiv url: http://arxiv.org/abs/2505.12789v1
- Date: Mon, 19 May 2025 07:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.460202
- Title: Enhancing Transformers Through Conditioned Embedded Tokens
- Title(参考訳): コンディション付き組込みトークンによる変圧器の強化
- Authors: Hemanth Saratchandran, Simon Lucey,
- Abstract要約: 本研究では,アテンションブロックの条件付けと埋め込みトークン化データの条件付けの直接的な関係を確立する理論的枠組みを開発する。
本研究では,アテンション機構のコンディショニングを改善するために,組込みトークンを体系的に修正するコンディショニングトークンを導入する。
我々の分析は、このアプローチが不調を著しく軽減し、より安定かつ効率的な訓練につながることを示している。
- 参考スコア(独自算出の注目度): 28.80560770188464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transformers have transformed modern machine learning, driving breakthroughs in computer vision, natural language processing, and robotics. At the core of their success lies the attention mechanism, which enables the modeling of global dependencies among input tokens. However, we reveal that the attention block in transformers suffers from inherent ill-conditioning, which hampers gradient-based optimization and leads to inefficient training. To address this, we develop a theoretical framework that establishes a direct relationship between the conditioning of the attention block and that of the embedded tokenized data. Building on this insight, we introduce conditioned embedded tokens, a method that systematically modifies the embedded tokens to improve the conditioning of the attention mechanism. Our analysis demonstrates that this approach significantly mitigates ill-conditioning, leading to more stable and efficient training. We validate our methodology across various transformer architectures, achieving consistent improvements in image classification, object detection, instance segmentation, and natural language processing, highlighting its broad applicability and effectiveness.
- Abstract(参考訳): トランスフォーマーは現代の機械学習を変革し、コンピュータビジョン、自然言語処理、ロボット工学のブレークスルーを推進してきた。
彼らの成功の核心はアテンションメカニズムであり、入力トークン間のグローバルな依存関係のモデリングを可能にする。
しかし,変圧器のアテンションブロックは,勾配に基づく最適化を阻害し,非効率なトレーニングをもたらす固有の条件付けに悩まされていることが明らかとなった。
そこで我々は,アテンションブロックの条件付けと組込みトークン化データの条件付けの直接的な関係を確立する理論的枠組みを開発する。
この知見に基づいて,埋め込みトークンを体系的に修正し,注意機構の条件付けを改善する手法である条件付き埋め込みトークンを導入する。
我々の分析は、このアプローチが不調を著しく軽減し、より安定かつ効率的な訓練につながることを示している。
画像分類,オブジェクト検出,インスタンスセグメンテーション,自然言語処理における一貫した改善を実現し,その適用性と有効性を強調した。
関連論文リスト
- Simplifying Graph Transformers [64.50059165186701]
本稿では, アーキテクチャ上の大きな歪みを伴わずに, グラフに適用できるように, 3つの簡単な修正を提案する。
具体的には,(1)簡易な$L$の注意でトークンの大きさを計測すること,(2)トークンの大きさ情報を保存するための適応的なルート平均二乗正規化,(3)共有エンコーダを用いた相対的な位置符号化バイアスを提唱する。
論文 参考訳(メタデータ) (2025-04-17T02:06:50Z) - Skip-Layer Attention: Bridging Abstract and Detailed Dependencies in Transformers [56.264673865476986]
本稿では、Transformerモデルを強化するためのSLA(Skip-Layer Attention)を提案する。
SLAは、高レベルの抽象機能と低レベルの詳細の間の依存関係をキャプチャするモデルの能力を改善します。
我々の実装は、与えられたレイヤ内のクエリが、現在のレイヤと前のレイヤの両方のキーと値とやり取りできるようにすることで、Transformerの機能を拡張します。
論文 参考訳(メタデータ) (2024-06-17T07:24:38Z) - A Theoretical Analysis of Self-Supervised Learning for Vision Transformers [66.08606211686339]
マスク付きオートエンコーダ(MAE)とコントラスト学習(CL)は異なる種類の表現をキャプチャする。
我々は,MAEとCLの両目的に対して,一層ソフトマックス型視覚変換器(ViT)のトレーニングダイナミクスについて検討した。
論文 参考訳(メタデータ) (2024-03-04T17:24:03Z) - ExpPoint-MAE: Better interpretability and performance for self-supervised point cloud transformers [7.725095281624494]
マスク付き自動符号化の有効性を事前学習方式として評価し,代替手段としてMomentum Contrastを探索する。
我々は,トランスフォーマーが意味論的に意味のある領域への参加を学ぶことを観察し,事前学習が基礎となる幾何学の理解を深めることを示す。
論文 参考訳(メタデータ) (2023-06-19T09:38:21Z) - Stabilizing Transformer Training by Preventing Attention Entropy
Collapse [56.45313891694746]
本研究は,トランスフォーマーのトレーニングダイナミクスについて,注目層の進化について検討する。
我々は、$sigma$Reparamが注意層におけるエントロピー崩壊を防ぎ、より安定したトレーニングを促進することを示す。
画像分類、画像自己教師型学習、機械翻訳、音声認識、言語モデリングタスクについて、$sigma$Reparamで実験を行った。
論文 参考訳(メタデータ) (2023-03-11T03:30:47Z) - Efficient Transformer-based 3D Object Detection with Dynamic Token
Halting [19.88560740238657]
本稿では,異なる層でトークンを動的に停止させることにより,トランスフォーマーを用いた3次元物体検出器の高速化に有効な手法を提案する。
トークンの停止は微分不可能な操作であるが,本手法はエンドツーエンドの学習を可能にする。
我々のフレームワークでは、停止トークンを再利用して、簡単なトークンリサイクル機構を通じてモデルの予測を知らせることができます。
論文 参考訳(メタデータ) (2023-03-09T07:26:49Z) - What Makes for Good Tokenizers in Vision Transformer? [62.44987486771936]
変圧器は自己注意を用いて対関係を抽出することができる。
優れたトークンライザとなるものは、コンピュータビジョンではよく理解されていない。
Tokens (MoTo) を横断する変調は、正規化によるトークン間モデリング機能を備えている。
TokenPropの正規化対象は、標準トレーニング体制で採用されている。
論文 参考訳(メタデータ) (2022-12-21T15:51:43Z) - COOL, a Context Outlooker, and its Application to Question Answering and
other Natural Language Processing Tasks [2.4048245789542113]
ビジョン・オブザーバは視覚変換器の性能を向上し、アウトルック・アテンションを追加することで自己注意機構を実装している。
自然言語処理のための展望アテンションメカニズムであるCOOLを提案する。
論文 参考訳(メタデータ) (2022-04-01T07:03:40Z) - Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer [89.21584915290319]
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
論文 参考訳(メタデータ) (2020-04-23T14:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。