論文の概要: Synergistic Feature Fusion for Latent Lyrical Classification: A Gated Deep Learning Architecture
- arxiv url: http://arxiv.org/abs/2511.11673v1
- Date: Tue, 11 Nov 2025 21:12:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.892109
- Title: Synergistic Feature Fusion for Latent Lyrical Classification: A Gated Deep Learning Architecture
- Title(参考訳): ラテント・ライリカル分類のための相乗的特徴融合 - ゲーテッド・ディープラーニング・アーキテクチャ
- Authors: M. A. Gameiro,
- Abstract要約: 本研究は,複雑で高次元の深い意味的特徴を,論理的内容分類のための単純かつ解釈可能な構造的手がかりと統合するという課題に対処する。
低次元補助的特徴(Fstruct)を用いた意味-BERT埋め込み(Fdeep)を修飾するためのゲート機構を利用したディープラーニングモデルであるSFLアーキテクチャを提案する。
SFLモデルは精度0.9894、マクロF1スコア0.9894を達成し、特徴連結を用いた総合ランダムフォレスト(RF)ベースラインを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study addresses the challenge of integrating complex, high-dimensional deep semantic features with simple, interpretable structural cues for lyrical content classification. We introduce a novel Synergistic Fusion Layer (SFL) architecture, a deep learning model utilizing a gated mechanism to modulate Sentence-BERT embeddings (Fdeep) using low-dimensional auxiliary features (Fstruct). The task, derived from clustering UMAP-reduced lyrical embeddings, is reframed as binary classification, distinguishing a dominant, homogeneous cluster (Class 0) from all other content (Class 1). The SFL model achieved an accuracy of 0.9894 and a Macro F1 score of 0.9894, outperforming a comprehensive Random Forest (RF) baseline that used feature concatenation (Accuracy = 0.9868). Crucially, the SFL model demonstrated vastly superior reliability and calibration, exhibiting a 93% reduction in Expected Calibration Error (ECE = 0.0035) and a 2.5x lower Log Loss (0.0304) compared to the RF baseline (ECE = 0.0500; Log Loss = 0.0772). This performance validates the architectural hypothesis that non-linear gating is superior to simple feature concatenation, establishing the SFL model as a robust and trustworthy system for complex multimodal lyrical analysis.
- Abstract(参考訳): 本研究は,複雑で高次元の深い意味的特徴を,論理的内容分類のための単純かつ解釈可能な構造的手がかりと統合するという課題に対処する。
低次元補助機能 (Fstruct) を用いて, セレンス-BERT 埋め込み (Fdeep) を変調するためのゲート機構を用いた深層学習モデルであるSingergistic Fusion Layer (SFL) アーキテクチャを導入する。
このタスクは、UMAPが還元した線形埋め込みから派生したもので、二項分類として再編成され、支配的で同質なクラスタ(Class 0)と他のすべてのコンテンツ(Class 1)とを区別する。
SFLモデルは精度0.9894、マクロF1スコア0.9894を達成し、特徴連結を用いた総合ランダムフォレスト(RF)ベースラインを上回った(精度=0.9868)。
SFLモデルは非常に優れた信頼性と校正性能を示し、期待校正誤差 (ECE = 0.0035) が93%減少し、RFベースライン (ECE = 0.0500; Log Loss = 0.0772) よりも2.5倍低いログ損失 (0.0304) が得られた。
この性能は、非線形ゲーティングが単純な特徴連結よりも優れているというアーキテクチャ仮説を検証し、SFLモデルを複雑なマルチモーダル線形解析のための堅牢で信頼性の高いシステムとして確立する。
関連論文リスト
- Explainable AI for microseismic event detection [1.7842332554022695]
PhaseNetのようなディープニューラルネットワークは、ミクロ地震イベントの検出において高い精度を示しているが、それらのブラックボックスの性質は、重要な応用において懸念されている。
我々は、フェーズネットモデルの判断を解釈し、信頼性を向上させるために、グラディエント重み付きクラスアクティベーションマッピング(Grad-CAM)のような説明可能なAI技術を適用した。
我々は,XAIが深層学習モデルだけでなく,その性能も直接的に向上できることを示し,自動地震検知器の信頼性構築のためのテンプレートを提供する。
論文 参考訳(メタデータ) (2025-10-20T11:42:17Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - An Efficient Hierarchical Preconditioner-Learner Architecture for Reconstructing Multi-scale Basis Functions of High-dimensional Subsurface Fluid Flow [4.303037819686676]
本研究では,高次元地下流れの多次元基底関数を再構築した効率的な階層型プレコンディショナー・ラーナーアーキテクチャを提案する。
FP-HMsNetは、MSEが0.0036、MAEが0.0375、R2が0.9716に達し、既存のモデルよりも大幅に優れていた。
このモデルは、より複雑な現実世界の応用に期待できる、効率的で正確な地下流動モデリングのための新しい方法を提供する。
論文 参考訳(メタデータ) (2024-11-01T09:17:08Z) - Language Models as Zero-shot Lossless Gradient Compressors: Towards General Neural Parameter Prior Models [56.00251589760559]
大型言語モデル(LLM)はゼロショット設定でグラデーション先行として振る舞うことができる。
本稿では,LSMと算術符号を統合する新しい手法であるLM-GCを紹介する。
実験により、LM-GCは既存の最先端のロスレス圧縮手法を超越していることが示された。
論文 参考訳(メタデータ) (2024-09-26T13:38:33Z) - Hybrid-Segmentor: A Hybrid Approach to Automated Fine-Grained Crack Segmentation in Civil Infrastructure [52.2025114590481]
エンコーダ・デコーダをベースとした手法であるHybrid-Segmentorを導入する。
これにより、モデルは、様々な種類の形状、表面、き裂の大きさを区別する一般化能力を向上させることができる。
提案モデルは,5つの測定基準(精度0.971,精度0.804,リコール0.744,F1スコア0.770,IoUスコア0.630)で既存ベンチマークモデルより優れ,最先端の状態を達成している。
論文 参考訳(メタデータ) (2024-09-04T16:47:16Z) - Stragglers-Aware Low-Latency Synchronous Federated Learning via Layer-Wise Model Updates [71.81037644563217]
同期フェデレーションラーニング(FL)は、協調エッジラーニングの一般的なパラダイムである。
一部のデバイスは計算資源が限られており、様々な可用性があるため、FLレイテンシはストラグラーに非常に敏感である。
本稿では,NNの最適化手法をバックプロパゲーションにより活用し,グローバルモデルを階層的に更新するストラグラー対応層対応学習(SALF)を提案する。
論文 参考訳(メタデータ) (2024-03-27T09:14:36Z) - FedAC: An Adaptive Clustered Federated Learning Framework for Heterogeneous Data [21.341280782748278]
クラスタ化フェデレーション学習(CFL)は、データ不均一性から生じる性能劣化を軽減するために提案される。
我々は,グローバル知識をクラスタ内学習に効率的に統合する適応型CFLフレームワークFedACを提案する。
実験の結果、FedACは試験精度が1.82%、12.67%向上した。
論文 参考訳(メタデータ) (2024-03-25T06:43:28Z) - Federated Learning over Hierarchical Wireless Networks: Training Latency Minimization via Submodel Partitioning [15.311309249848739]
階層型独立サブモデルトレーニング(Hierarchical independent submodel training、HIST)は、階層型クラウド-エッジ-クライアントネットワークにおけるこれらの問題に対処することを目的とした新しいFL方法論である。
本研究では,HISTを空気上計算(AirComp)で拡張することにより,エッジセル上でのモデルアグリゲーションの効率をより高めることができることを示す。
論文 参考訳(メタデータ) (2023-10-27T04:42:59Z) - NeFL: Nested Model Scaling for Federated Learning with System Heterogeneous Clients [44.89061671579694]
フェデレートラーニング(FL)は、データのプライバシを保ちながら分散トレーニングを可能にするが、ストラグラーのスローあるいは無効なクライアントは、トレーニング時間を大幅に短縮し、パフォーマンスを低下させる。
深層ニューラルネットワークを深層スケールと幅ワイドスケーリングの両方を用いてサブモデルに効率的に分割するフレームワークであるネスト付きフェデレーションラーニング(NeFL)を提案する。
NeFLは、特に最低ケースのサブモデルでは、ベースラインアプローチに比べてパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-08-15T13:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。