論文の概要: Sparse and Continuous Attention Mechanisms
- arxiv url: http://arxiv.org/abs/2006.07214v3
- Date: Thu, 29 Oct 2020 08:39:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 01:56:26.573267
- Title: Sparse and Continuous Attention Mechanisms
- Title(参考訳): スパースと連続的注意機構
- Authors: Andr\'e F. T. Martins, Ant\'onio Farinhas, Marcos Treviso, Vlad
Niculae, Pedro M. Q. Aguiar, M\'ario A. T. Figueiredo
- Abstract要約: 1,2。
注意に基づくテキスト分類、機械翻訳、視覚的質問応答の実験は、1Dと2Dの連続的注意の使用を示している。
- 参考スコア(独自算出の注目度): 14.941013982958209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exponential families are widely used in machine learning; they include many
distributions in continuous and discrete domains (e.g., Gaussian, Dirichlet,
Poisson, and categorical distributions via the softmax transformation).
Distributions in each of these families have fixed support. In contrast, for
finite domains, there has been recent work on sparse alternatives to softmax
(e.g. sparsemax and alpha-entmax), which have varying support, being able to
assign zero probability to irrelevant categories. This paper expands that work
in two directions: first, we extend alpha-entmax to continuous domains,
revealing a link with Tsallis statistics and deformed exponential families.
Second, we introduce continuous-domain attention mechanisms, deriving efficient
gradient backpropagation algorithms for alpha in {1,2}. Experiments on
attention-based text classification, machine translation, and visual question
answering illustrate the use of continuous attention in 1D and 2D, showing that
it allows attending to time intervals and compact regions.
- Abstract(参考訳): 指数族は機械学習において広く用いられ、連続および離散領域(例えば、ガウス、ディリクレ、ポアソン、ソフトマックス変換によるカテゴリー分布など)における多くの分布を含む。
それぞれの家庭の分布には一定の支持がある。
対照的に、有限領域に対しては、様々な支持を持ち、無関係な圏にゼロ確率を割り当てることのできるソフトマックス(例えば、スパースマックスやアルファエントマックス)のスパース代替案に関する最近の研究がある。
まず, α-entmax を連続領域に拡張し, tsallis 統計と変形した指数関数族との関係を明らかにする。
第2に, {1,2} のアルファに対する効率的な勾配バックプロパゲーションアルゴリズムを導出した連続領域アテンション機構を導入する。
注意に基づくテキスト分類、機械翻訳、視覚的質問応答の実験は、1Dと2Dにおける継続的な注意の使用を示し、時間間隔やコンパクトな領域への参加を可能にする。
関連論文リスト
- MultiMax: Sparse and Multi-Modal Attention Learning [60.49318008131978]
SoftMaxは現代の機械学習アルゴリズムのユビキタスな成分である。
分散性はSoftMaxの変種族によって達成できるが、それらはしばしば代替損失関数を必要とし、多重モダリティを保たない。
入力入力範囲に応じて出力分布を適応的に変調するMultiMaxを提案する。
論文 参考訳(メタデータ) (2024-06-03T10:51:43Z) - Hierarchical Multiresolution Feature- and Prior-based Graphs for
Classification [3.1219977244201056]
多分解能近傍グラフの3つの変種と階層的条件付きランダムフィールドのグラフの分類問題を定式化した。
これらのグラフはそれぞれ重み付けされ、無向的であり、したがって空間的あるいは階層的な関係をあらゆる方向に組み込むことができた。
空間特徴に基づく部分グラフのエッジ重みを導出する新しいメカニズムを用いてランダムなウォーカーグラフ上に拡張した。
論文 参考訳(メタデータ) (2023-06-03T15:58:38Z) - Sarah Frank-Wolfe: Methods for Constrained Optimization with Best Rates and Practical Features [65.64276393443346]
Frank-Wolfe (FW) 法は、構造化制約による最適化問題の解法として一般的な手法である。
有限サム勾配の最小化のためのアルゴリズムの2つの新しい変種を示す。
論文 参考訳(メタデータ) (2023-04-23T20:05:09Z) - Efficient Graph Field Integrators Meet Point Clouds [59.27295475120132]
点雲を符号化するグラフ上での効率的な場積分のためのアルゴリズムを2種類提案する。
第1のクラスであるSeparatorFactorization(SF)は、ポイントメッシュグラフの有界属を利用するが、第2のクラスであるRFDiffusion(RFD)は、ポイントクラウドの一般的なepsilon-nearest-neighborグラフ表現を使用する。
論文 参考訳(メタデータ) (2023-02-02T08:33:36Z) - On the Normalizing Constant of the Continuous Categorical Distribution [24.015934908123928]
そのような分布の新しい族が発見されており、連続的な分類である。
この数学的単純さにもかかわらず、正規化定数に対する我々の理解は完全とは程遠いままである。
我々は、連続的なカテゴリー分布のより広い適用を可能にする理論的および方法論的な進歩を提示する。
論文 参考訳(メタデータ) (2022-04-28T05:06:12Z) - Kernel Deformed Exponential Families for Sparse Continuous Attention [76.61129971916702]
カーネル指数および変形指数族の存在結果を示す。
実験により、カーネル変形指数族はデータ領域の複数のコンパクト領域に参加することができることが示された。
論文 参考訳(メタデータ) (2021-11-01T19:21:22Z) - Evidential Softmax for Sparse Multimodal Distributions in Deep
Generative Models [38.26333732364642]
確率分布の多重性を保存するスパース正規化関数である$textitev-softmax$を提案する。
本稿では,多変量オートエンコーダや自動回帰アーキテクチャなど,多種多様な生成モデルについて評価する。
論文 参考訳(メタデータ) (2021-10-27T05:32:25Z) - Sparse Continuous Distributions and Fenchel-Young Losses [28.52737451408056]
我々は、$Omega$-regularized prediction mapとFenchel-Young損失を任意のドメインに拡張する。
連続領域における二次エネルギー関数の場合、結果として得られる密度は$beta$-Gaussiansである。
注意情報に基づく音声分類と視覚的質問応答のためのスパース連続分布を実証する。
論文 参考訳(メタデータ) (2021-08-04T12:07:18Z) - Lifting the Convex Conjugate in Lagrangian Relaxations: A Tractable
Approach for Continuous Markov Random Fields [53.31927549039624]
断片的な離散化は既存の離散化問題と矛盾しないことを示す。
この理論を2つの画像のマッチング問題に適用する。
論文 参考訳(メタデータ) (2021-07-13T12:31:06Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。