論文の概要: Sarcasm Detection Using Deep Convolutional Neural Networks: A Modular Deep Learning Framework
- arxiv url: http://arxiv.org/abs/2510.10729v1
- Date: Sun, 12 Oct 2025 18:02:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.086759
- Title: Sarcasm Detection Using Deep Convolutional Neural Networks: A Modular Deep Learning Framework
- Title(参考訳): 深部畳み込みニューラルネットワークを用いたサーカスム検出:モジュール型ディープラーニングフレームワーク
- Authors: Manas Zambre, Sarika Bobade,
- Abstract要約: サルカズム(英: Sarcasm)は、特にテキストにおいて、声調と体語が欠落している、ニュアンスでしばしば誤解されるコミュニケーション形式である。
本稿では,深い畳み込みニューラルネットワーク(DCNN)とBERTのような文脈モデルを利用して,言語的・感情的・文脈的手がかりを解析する,サルカズム検出のためのモジュール型ディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sarcasm is a nuanced and often misinterpreted form of communication, especially in text, where tone and body language are absent. This paper proposes a modular deep learning framework for sarcasm detection, leveraging Deep Convolutional Neural Networks (DCNNs) and contextual models such as BERT to analyze linguistic, emotional, and contextual cues. The system integrates sentiment analysis, contextual embeddings, linguistic feature extraction, and emotion detection through a multi-layer architecture. While the model is in the conceptual stage, it demonstrates feasibility for real-world applications such as chatbots and social media analysis.
- Abstract(参考訳): サルカズム(Sarcasm)は、微妙でしばしば誤解されるコミュニケーションの形式であり、特にテキストでは、声調と体語が欠落している。
本稿では,深い畳み込みニューラルネットワーク(DCNN)とBERTのような文脈モデルを利用して,言語的・感情的・文脈的手がかりを解析する,サルカズム検出のためのモジュール型ディープラーニングフレームワークを提案する。
このシステムは、感情分析、文脈埋め込み、言語的特徴抽出、多層アーキテクチャによる感情検出を統合している。
このモデルは概念的な段階にあるが、チャットボットやソーシャルメディア分析のような現実世界のアプリケーションの実現可能性を示している。
関連論文リスト
- Can Large Vision-Language Models Understand Multimodal Sarcasm? [14.863320201956963]
サルカスム(Sarcasm)は、リテラルと意図された意味の相違を含む複雑な言語現象である。
マルチモーダルサルカズム解析(MSA)タスクにおける大規模視覚言語モデル(LVLM)の評価を行った。
深度オブジェクト抽出と外部概念知識を統合した学習自由フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-05T17:05:11Z) - RCLMuFN: Relational Context Learning and Multiplex Fusion Network for Multimodal Sarcasm Detection [1.023096557577223]
マルチモーダルサルカズム検出のための関係文脈学習と多重化融合ネットワーク(RCLMuFN)を提案する。
まず,4つの特徴抽出器を用いて,原文や画像から特徴を包括的に抽出する。
次に,関係文脈学習モジュールを用いて,テキストや画像の文脈情報を学習する。
論文 参考訳(メタデータ) (2024-12-17T15:29:31Z) - Language, Environment, and Robotic Navigation [0.0]
本稿では,言語が抽象的なコミュニケーションシステムとして機能し,知覚経験の基盤的表現として機能する統一的な枠組みを提案する。
本稿では,分散意味論の認知モデルとその自律エージェントへの応用について概観し,言語統合システムの変容の可能性について述べる。
論文 参考訳(メタデータ) (2024-04-03T20:30:38Z) - Sentiment-enhanced Graph-based Sarcasm Explanation in Dialogue [63.32199372362483]
本稿では,SEntiment-enhanceD Graph を用いたマルチモーダルサルカズム記述フレームワーク EDGE を提案する。
特に,まずレキシコン誘導型発話感情推論モジュールを提案し,そこでは発話感情改善戦略を考案する。
次に,マルチモーダル感情分析モデル JCA を拡張し,映像音声クリップ毎に共同感情ラベルを導出することにより,JCA-SI (Joint Cross Attention-based Sentiment Inference) というモジュールを開発する。
論文 参考訳(メタデータ) (2024-02-06T03:14:46Z) - Chat2Brain: A Method for Mapping Open-Ended Semantic Queries to Brain
Activation Maps [59.648646222905235]
そこで本研究では,テキスト2画像モデルであるText2BrainにLLMを組み合わせ,セマンティッククエリを脳活性化マップにマッピングするChat2Brainを提案する。
テキストクエリのより複雑なタスクに対して、Chat2Brainが可塑性なニューラルアクティベーションパターンを合成できることを実証した。
論文 参考訳(メタデータ) (2023-09-10T13:06:45Z) - Less Data, More Knowledge: Building Next Generation Semantic
Communication Networks [180.82142885410238]
本稿では、スケーラブルなエンドツーエンドセマンティック通信ネットワークの最初の厳密なビジョンを示す。
まず、セマンティック・コミュニケーション・ネットワークの設計は、データ駆動型ネットワークから知識駆動型ネットワークへどのように移行する必要があるかについて議論する。
意味表現と言語を用いることで、従来の送信機と受信機が教師と見習いになることを示す。
論文 参考訳(メタデータ) (2022-11-25T19:03:25Z) - TeKo: Text-Rich Graph Neural Networks with External Knowledge [75.91477450060808]
外部知識を用いた新しいテキストリッチグラフニューラルネットワーク(TeKo)を提案する。
まず、高品質なエンティティを組み込んだフレキシブルな異種セマンティックネットワークを提案する。
次に、構造化三重項と非構造化実体記述という2種類の外部知識を導入する。
論文 参考訳(メタデータ) (2022-06-15T02:33:10Z) - Interpretable Multi-Head Self-Attention model for Sarcasm Detection in
social media [0.0]
sarcastic expressionの曖昧さは、sarcasmの発見を非常に困難にしている。
マルチヘッドセルフアテンションとゲートリカレントユニットを用いた解釈可能なディープラーニングモデルを開発する。
本稿では,複数のデータセットで最新の結果を得る手法の有効性を示す。
論文 参考訳(メタデータ) (2021-01-14T21:39:35Z) - Structured Attention for Unsupervised Dialogue Structure Induction [110.12561786644122]
本稿では、構造化された注意層を離散潜在状態を持つ変化型リカレントニューラルネットワーク(VRNN)モデルに組み込んで、教師なしの方法で対話構造を学ぶことを提案する。
バニラVRNNと比較して、構造化された注意は、構造的帰納バイアスを強制しながら、ソース文の埋め込みの異なる部分にフォーカスすることができる。
論文 参考訳(メタデータ) (2020-09-17T23:07:03Z) - Generative Adversarial Phonology: Modeling unsupervised phonetic and
phonological learning with neural networks [0.0]
音声データにおけるよく理解された依存関係に基づくディープニューラルネットワークのトレーニングは、内部表現の学習方法に関する新たな洞察を提供することができる。
本稿では, 音声の獲得を, 生成適応型ネットワークアーキテクチャにおけるランダム空間と生成した音声データ間の依存性としてモデル化することができることを論じる。
本稿では,音韻的・音韻的特性に対応するネットワークの内部表現を明らかにする手法を提案する。
論文 参考訳(メタデータ) (2020-06-06T20:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。