論文の概要: Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection
- arxiv url: http://arxiv.org/abs/2602.16161v1
- Date: Wed, 18 Feb 2026 03:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.503277
- Title: Emotion Collider: Dual Hyperbolic Mirror Manifolds for Sentiment Recovery via Anti Emotion Reflection
- Title(参考訳): Emotion Collider:反感情反射による感覚回復のための双曲双曲双曲鏡マニフォールド
- Authors: Rong Fu, Ziming Wang, Shuo Yin, Wenxin Zhang, Haiyun Wei, Kun Liu, Xianda Li, Zeli Su, Simon Fong,
- Abstract要約: Emotion Collider (EC-Net)は、マルチモーダルな感情と感情モデリングのためのハイパーグラフフレームワークである。
EC-Netは、Poincare-ballの埋め込みを使用して階層を表現し、ハイパーグラフ機構を通じて融合を行う。
実験の結果、EC-Netは頑健でセマンティックな一貫性のある表現を生成し、常に精度を向上することが示された。
- 参考スコア(独自算出の注目度): 19.83275015213163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotional expression underpins natural communication and effective human-computer interaction. We present Emotion Collider (EC-Net), a hyperbolic hypergraph framework for multimodal emotion and sentiment modeling. EC-Net represents modality hierarchies using Poincare-ball embeddings and performs fusion through a hypergraph mechanism that passes messages bidirectionally between nodes and hyperedges. To sharpen class separation, contrastive learning is formulated in hyperbolic space with decoupled radial and angular objectives. High-order semantic relations across time steps and modalities are preserved via adaptive hyperedge construction. Empirical results on standard multimodal emotion benchmarks show that EC-Net produces robust, semantically coherent representations and consistently improves accuracy, particularly when modalities are partially available or contaminated by noise. These findings indicate that explicit hierarchical geometry combined with hypergraph fusion is effective for resilient multimodal affect understanding.
- Abstract(参考訳): 感情表現は自然なコミュニケーションと効果的な人間とコンピュータの相互作用を支える。
マルチモーダルな感情と感情モデリングのためのハイパーグラフフレームワークであるEmotion Collider (EC-Net)について述べる。
EC-Netは、Poincare-ballの埋め込みを使用してモダリティ階層を表現し、ノードとハイパーエッジの間でメッセージを双方向に渡すハイパーグラフ機構を通じて融合を行う。
クラス分離を鋭くするために、非結合なラジアルおよび角目標を持つ双曲空間でコントラスト学習を定式化する。
時間ステップとモダリティをまたいだ高次意味関係は適応的なハイパーエッジ構造によって保存される。
標準的なマルチモーダル感情ベンチマークの実証結果は、EC-Netが堅牢でセマンティックなコヒーレントな表現を生成し、特にモダリティが部分的に利用可能またはノイズによって汚染された場合、一貫して精度を向上することを示している。
これらの結果から,ハイパーグラフ融合を併用した明示的階層的幾何学は,レジリエントなマルチモーダル影響の理解に有効であることが示唆された。
関連論文リスト
- SoftHGNN: Soft Hypergraph Neural Networks for General Visual Recognition [19.88933136559363]
ハイパーグラフは高次相互作用をモデル化することによって従来のグラフを拡張する。
既存のハイパーグラフニューラルネットワークは通常、静的およびハードなハイパーエッジ割り当てに依存している。
本稿では,ハイパーグラフ計算の方法論を拡張したソフトハイパーグラフニューラルネットワーク(SoftHGNN)を提案する。
論文 参考訳(メタデータ) (2025-05-21T10:01:30Z) - VAEmo: Efficient Representation Learning for Visual-Audio Emotion with Knowledge Injection [50.57849622045192]
本稿では,外部知識注入を用いた感情中心型VA表現学習のための効率的なフレームワークであるVAEmoを提案する。
VAEmoは、コンパクトな設計で最先端のパフォーマンスを実現し、統合されたクロスモーダルエンコーディングと感情認識のセマンティックガイダンスの利点を強調している。
論文 参考訳(メタデータ) (2025-05-05T03:00:51Z) - PiercingEye: Dual-Space Video Violence Detection with Hyperbolic Vision-Language Guidance [39.38656685766509]
既存のビデオ暴力検出手法はユークリッド表現学習に依存している。
ユークリッドおよび双曲幾何学を相乗化する新しい二空間学習フレームワークであるPiercingEyeを提案する。
XD-ViolenceとUCF-Crimeベンチマークの実験は、PiercingEyeが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-26T09:29:10Z) - Machine Unlearning in Hyperbolic vs. Euclidean Multimodal Contrastive Learning: Adapting Alignment Calibration to MERU [50.9588132578029]
本稿では,双曲型コントラスト学習における機械学習について検討する。
我々は、画像とテキストを双曲空間に埋め込んだモデルであるMERUにアライメントを適用し、セマンティック階層をよりよくキャプチャする。
提案手法では,双曲空間の特異性を利用したエンテーメントキャリブレーションやノルム正規化など,双曲特異成分を導入している。
論文 参考訳(メタデータ) (2025-03-19T12:47:37Z) - Effective Context Modeling Framework for Emotion Recognition in Conversations [2.7175580940471913]
会話における感情認識(英語: Emotion Recognition in Conversations, ERC)は、会話中の各発話における話者による感情のより深い理解を促進する。
最近のグラフニューラルネットワーク(GNN)は、データ関係をキャプチャする上で、その強みを実証している。
本稿では,会話中の文脈情報をキャプチャする新しいGNNベースのフレームワークであるConxGNNを提案する。
論文 参考訳(メタデータ) (2024-12-21T02:22:06Z) - When Words Smile: Generating Diverse Emotional Facial Expressions from Text [77.1867389815291]
本稿では,感情動態に着目したエンドツーエンドのテキスト対表現モデルを提案する。
我々のモデルは連続的な潜伏空間における表情の変動を学習し、多様な、流動的で、感情的に一貫性のある表現を生成する。
論文 参考訳(メタデータ) (2024-12-03T15:39:05Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Fusion with Hierarchical Graphs for Mulitmodal Emotion Recognition [7.147235324895931]
本稿では,より情報に富んだマルチモーダル表現を学習する階層型グラフネットワーク(HFGCN)モデルを提案する。
具体的には,2段階グラフ構築手法を用いてマルチモーダル入力を融合し,モダリティ依存性を会話表現にエンコードする。
実験により,より正確なAERモデルの有効性が示された。
論文 参考訳(メタデータ) (2021-09-15T08:21:01Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。