論文の概要: Hyperbolic Additive Margin Softmax with Hierarchical Information for Speaker Verification
- arxiv url: http://arxiv.org/abs/2601.19709v1
- Date: Tue, 27 Jan 2026 15:33:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.37047
- Title: Hyperbolic Additive Margin Softmax with Hierarchical Information for Speaker Verification
- Title(参考訳): 話者検証のための階層情報付き双曲的付加性マージンソフトマックス
- Authors: Zhihua Fang, Liang He,
- Abstract要約: 本稿では,双曲空間に基づく双曲型ソフトマックス (H-Softmax) と双曲型マージンソフトマックス (HAM-Softmax) を提案する。
H-Softmaxは、埋め込みや話者中心を双曲空間に投影することで、階層的な情報を話者埋め込みに組み込む。
Ham-Softmaxは、マージン制約を導入することにより、クラス間の分離性をさらに強化する。
- 参考スコア(独自算出の注目度): 11.01429225070742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speaker embedding learning based on Euclidean space has achieved significant progress, but it is still insufficient in modeling hierarchical information within speaker features. Hyperbolic space, with its negative curvature geometric properties, can efficiently represent hierarchical information within a finite volume, making it more suitable for the feature distribution of speaker embeddings. In this paper, we propose Hyperbolic Softmax (H-Softmax) and Hyperbolic Additive Margin Softmax (HAM-Softmax) based on hyperbolic space. H-Softmax incorporates hierarchical information into speaker embeddings by projecting embeddings and speaker centers into hyperbolic space and computing hyperbolic distances. HAM-Softmax further enhances inter-class separability by introducing margin constraint on this basis. Experimental results show that H-Softmax and HAM-Softmax achieve average relative EER reductions of 27.84% and 14.23% compared with standard Softmax and AM-Softmax, respectively, demonstrating that the proposed methods effectively improve speaker verification performance and at the same time preserve the capability of hierarchical structure modeling. The code will be released at https://github.com/PunkMale/HAM-Softmax.
- Abstract(参考訳): ユークリッド空間に基づく話者埋め込み学習は大きな進歩を遂げているが、話者特徴の階層的情報をモデル化するには依然として不十分である。
双曲空間は負の曲率幾何学的性質を持ち、有限体積内の階層情報を効率的に表現することができ、話者埋め込みの特徴分布により適している。
本稿では,双曲空間に基づく双曲型ソフトマックス (H-Softmax) と双曲型マージンソフトマックス (HAM-Softmax) を提案する。
H-Softmaxは、埋め込みや話者中心を双曲空間に投影し、双曲距離を計算することで、階層的な情報を話者埋め込みに組み込む。
HAM-Softmaxは、このベースでマージン制約を導入することにより、クラス間セパビリティをさらに強化する。
実験の結果,H-Softmax と HAM-Softmax は標準の Softmax と AM-Softmax と比較して平均相対EER の27.84% と 14.23% の削減を実現し,提案手法は話者検証性能を効果的に向上し,階層構造モデリングの能力を維持できることを示した。
コードはhttps://github.com/PunkMale/HAM-Softmax.comでリリースされる。
関連論文リスト
- SoLA-Vision: Fine-grained Layer-wise Linear Softmax Hybrid Attention [50.99430451151184]
線形注意はコストをO(N)に還元するが、圧縮された状態表現はモデリング能力と精度を損なう。
本稿では,視覚表現学習における線形およびソフトマックスの注意を対比する分析的研究について述べる。
フレキシブルな層状ハイブリッドアテンションバックボーンであるSoLA-Visionを提案する。
論文 参考訳(メタデータ) (2026-01-16T10:26:53Z) - Unpacking Softmax: How Temperature Drives Representation Collapse, Compression, and Generalization [15.458541841436967]
モデルの表現を形作る際に,ソフトマックス関数が果たす重要な役割について検討する。
ランク欠陥バイアスという概念は、ソフトマックスに基づくディープネットワークがクラス数よりもはるかに低いランクの解を見出す現象である。
本研究では,ソフトマックスのダイナミックスを利用して圧縮表現を学習するか,あるいはアウト・オブ・ディストリビューションデータ上での性能を向上させるかを示す。
論文 参考訳(メタデータ) (2025-06-02T11:38:10Z) - Self-Adjust Softmax [62.267367768385434]
ソフトマックス関数はトランスフォーマーアテンションにおいて重要であり、アテンションスコアの各行を1にまとめて正規化する。
この問題に対処するために、$softmax(x)$を$x cdot Softmax(x)$に修正し、その正規化された変種である$frac(x - min(x_min,0))max(0,x_max)-min(x_min,0)cdot softmax(x)$を変更することを提案する。
論文 参考訳(メタデータ) (2025-02-25T15:07:40Z) - Scalable-Softmax Is Superior for Attention [0.0]
トランスフォーマーベースの言語モデルは、注意点を計算するためにSoftmaxに依存している。
SSMaxは入力ベクトルサイズが異なるシナリオでSoftmaxを置き換える。
SSMaxを用いたモデルは、事前訓練中に損失の削減を高速化するだけでなく、長期の文脈における性能を大幅に改善する。
論文 参考訳(メタデータ) (2025-01-31T18:55:35Z) - MultiMax: Sparse and Multi-Modal Attention Learning [60.49318008131978]
SoftMaxは現代の機械学習アルゴリズムのユビキタスな成分である。
分散性はSoftMaxの変種族によって達成できるが、それらはしばしば代替損失関数を必要とし、多重モダリティを保たない。
入力入力範囲に応じて出力分布を適応的に変調するMultiMaxを提案する。
論文 参考訳(メタデータ) (2024-06-03T10:51:43Z) - ConSmax: Hardware-Friendly Alternative Softmax with Learnable Parameters [14.029865087214436]
自己注意機構は、畳み込みニューラルネットワークと反復ニューラルネットワークとを区別して、トランスフォーマーベースの大規模言語モデル(LLM)を区別する。
シリコン上でのリアルタイムLEM推定は、自己注意においてSoftmaxが広く使用されているため、依然として困難である。
我々は,ソフトウェアハードウェアの共同設計であるConstant Softmax(ConSmax)を提案する。
論文 参考訳(メタデータ) (2024-01-31T17:52:52Z) - Spectral Aware Softmax for Visible-Infrared Person Re-Identification [123.69049942659285]
Visible-infrared person re-identification (VI-ReID) は、異なるモードの歩行者画像とマッチングすることを目的としている。
既存の手法は依然として、単一モダリティ分類タスクで広く使われているソフトマックス損失訓練パラダイムに従っている。
そこで本研究では, スペクトル対応ソフトマックス(SA-Softmax)の損失について提案する。
論文 参考訳(メタデータ) (2023-02-03T02:57:18Z) - Breaking the Softmax Bottleneck for Sequential Recommender Systems with
Dropout and Decoupling [0.0]
SBRSのSoftmaxボトルネックには、さらに多くの側面があることが示されています。
そこで本研究では,これらの問題を緩和するために,D&D(Dropout and Decoupling)というシンプルな手法を提案する。
本手法は,様々なSoftmaxベースのSBRSアルゴリズムの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-10-11T16:52:23Z) - Optimal Approximation -- Smoothness Tradeoffs for Soft-Max Functions [73.33961743410876]
ソフトマックス関数は近似と滑らかさの2つの主要な効率尺度を持つ。
近似と滑らか性の異なる尺度に対する最適近似-滑らか性トレードオフを同定する。
これにより、新しいソフトマックス関数が生まれ、それぞれ異なる用途に最適である。
論文 参考訳(メタデータ) (2020-10-22T05:19:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。