論文の概要: My Words Imply Your Opinion: Reader Agent-based Propagation Enhancement for Personalized Implicit Emotion Analysis
- arxiv url: http://arxiv.org/abs/2412.07367v3
- Date: Thu, 22 May 2025 10:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.696053
- Title: My Words Imply Your Opinion: Reader Agent-based Propagation Enhancement for Personalized Implicit Emotion Analysis
- Title(参考訳): My Words Imply Your Opinion: Reader Agent-based Propagation Enhancement for Personalized Implicit Emotion Analysis
- Authors: Jian Liao, Yu Feng, Yujin Zheng, Jun Zhao, Suge Wang, Jianxing Zheng,
- Abstract要約: 本稿では,Personalized IEA(PIEA)とRAPPIEモデルについて紹介する。
我々は、読者のフィードバックをシミュレートするために、大きな言語モデルに基づくリーダーエージェントを作成する。
我々は、英語と中国語のソーシャルメディアをカバーする2つの新しいPIEAデータセットを構築した。
- 参考スコア(独自算出の注目度): 11.628440499885238
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The subtlety of emotional expressions makes implicit emotion analysis (IEA) particularly sensitive to user-specific characteristics. Current studies personalize emotion analysis by focusing on the author but neglect the impact of the intended reader on implicit emotional feedback. In this paper, we introduce Personalized IEA (PIEA) and present the RAPPIE model, which addresses subjective variability by incorporating reader feedback. In particular, (1) we create reader agents based on large language models to simulate reader feedback, overcoming the issue of ``spiral of silence effect'' and data incompleteness of real reader reaction. (2) We develop a role-aware multi-view graph learning to model the emotion interactive propagation process in scenarios with sparse reader information. (3) We construct two new PIEA datasets covering English and Chinese social media with detailed user metadata, addressing the text-centric limitation of existing datasets. Extensive experiments show that RAPPIE significantly outperforms state-of-the-art baselines, demonstrating the value of incorporating reader feedback in PIEA.
- Abstract(参考訳): 感情表現の微妙さは、暗黙の感情分析(IEA)を特にユーザ固有の特徴に敏感にする。
現在の研究では、著者に焦点をあてて感情分析をパーソナライズするが、意図した読者が暗黙の感情フィードバックに与える影響を無視する。
本稿では、Personalized IEA(PIEA)を紹介し、読者フィードバックを取り入れた主観的変動に対処するRAPPIEモデルを提案する。
特に,(1)大規模言語モデルに基づく読解エージェントを作成し,読者のフィードバックをシミュレートし,「沈黙効果のスピラル」の問題と実際の読解反応のデータ不完全性を克服する。
2) 疎読者情報を用いたシナリオにおいて, 感情の対話的伝播過程をモデル化する役割認識型多視点グラフ学習を開発した。
(3) 既存のデータセットのテキスト中心の制限に対処するため,英語と中国語のソーシャルメディアを詳細なユーザメタデータでカバーする2つの新しいPIEAデータセットを構築した。
大規模実験により,RAPPIEは最先端のベースラインを著しく上回り,PIEAにリーダフィードバックを組み込むことの価値が示された。
関連論文リスト
- Bridging Cognition and Emotion: Empathy-Driven Multimodal Misinformation Detection [56.644686934050576]
ソーシャルメディアは情報発信の主流となっているが、誤報の急速な拡散を助長している。
従来の誤報検出法は主に表面的な特徴に焦点を合わせ、伝播過程における人間の共感の重要な役割を見落としている。
著者と読者の両方の視点から誤情報を分析するために、認知的・感情的共感を統合したデュアル・アスペクト・共感フレームワーク(DAE)を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:48:26Z) - Modelling Emotions in Face-to-Face Setting: The Interplay of Eye-Tracking, Personality, and Temporal Dynamics [1.4645774851707578]
本研究では、視線追跡データ、時間的ダイナミクス、性格特性を統合することで、知覚と知覚の両方の感情の検出を大幅に向上させる方法について述べる。
本研究は,将来の情緒コンピューティングと人間エージェントシステムの設計を示唆するものである。
論文 参考訳(メタデータ) (2025-03-18T13:15:32Z) - Enriching Multimodal Sentiment Analysis through Textual Emotional Descriptions of Visual-Audio Content [56.62027582702816]
マルチモーダル・センティメント・アナリティクスは、テキスト、音声、視覚データを融合することで人間の感情を解き放つことを目指している。
しかし、音声やビデオの表現の中で微妙な感情的なニュアンスを認識することは、恐ろしい挑戦だ。
テキストの感情記述に基づくプログレッシブ・フュージョン・フレームワークであるDEVAを紹介する。
論文 参考訳(メタデータ) (2024-12-12T11:30:41Z) - DEEPER: Dense Electroencephalography Passage Retrieval [6.084958172018792]
本稿では,中間テキスト翻訳を使わずに,自然言語読影中にユーザの神経信号から関連する経路を直接検索する新しいフレームワークDEEPERを提案する。
密度の高い検索アーキテクチャ上に構築されているDEEPERでは、ニューラルデータ処理、EEG信号とテキストパスを共有セマンティック空間にマッピングするための特殊なコンポーネントを備えたデュアルエンコーダアプローチを採用している。
論文 参考訳(メタデータ) (2024-12-09T17:41:25Z) - Towards Empathetic Conversational Recommender Systems [77.53167131692]
本稿では,共感型会話レコメンデータ(ECR)フレームワークを提案する。
ECRには、感情対応アイテムレコメンデーションと感情対応応答生成という、2つの主要なモジュールが含まれている。
ReDialデータセットの実験は、推奨精度を高め、ユーザの満足度を向上させる上で、我々のフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-08-30T15:43:07Z) - ASEM: Enhancing Empathy in Chatbot through Attention-based Sentiment and
Emotion Modeling [0.0]
本稿では,ユーザの発話の感情状態について,専門家の混在,複数エンコーダを用いた新たなソリューションを提案する。
本稿では,オープンドメインチャットボットの感情分析に基づいて感情分析を行うASEMというエンド・ツー・エンドのモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-25T20:36:51Z) - Learning from Implicit User Feedback, Emotions and Demographic Information in Task-Oriented and Document-Grounded Dialogues [52.95506649193427]
FEDIは、この情報に注釈を付けた最初の英語タスク指向および文書地上対話データセットである。
Flan-T5、GPT-2、Llama 2の実験では、タスクの完了と実際の一貫性に特に肯定的な影響が示されている。
論文 参考訳(メタデータ) (2024-01-17T14:52:26Z) - Understanding Before Recommendation: Semantic Aspect-Aware Review Exploitation via Large Language Models [53.337728969143086]
レコメンデーションシステムは、クリックやレビューのようなユーザとイテムのインタラクションを利用して表現を学習する。
従来の研究では、様々な側面や意図にまたがるユーザの嗜好をモデル化することで、推奨精度と解釈可能性を改善する。
そこで本研究では,意味的側面と認識的相互作用を明らかにするためのチェーンベースのプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-12-26T15:44:09Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - EmoTwiCS: A Corpus for Modelling Emotion Trajectories in Dutch Customer
Service Dialogues on Twitter [9.2878798098526]
本稿では,情緒トラジェクトリに注釈を付けた9,489件のオランダの顧客サービス対話コーパスであるEmoTwiCSを紹介する。
感情軌跡」という用語は、顧客の体験したきめ細かい感情だけでなく、会話の前に起きる出来事や人間の操作者による反応も指している。
論文 参考訳(メタデータ) (2023-10-10T11:31:11Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Uncovering the Limits of Text-based Emotion Detection [0.0]
感情分類のための最大のコーパスは、GoEmotions、読者によってラベル付けされた58Kメッセージ、Vent、ライターがラベル付けされた33Mメッセージである。
我々はベンチマークを設計し、BERT上に2つのシンプルな新しいモデルを含むいくつかの特徴空間と学習アルゴリズムを評価する。
論文 参考訳(メタデータ) (2021-09-04T16:40:06Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion
Cause Extraction [24.288475819004034]
広く使われているCEデータセットは、注釈付き原因節の大多数が関連する感情節の直前にあるか、あるいは感情節自体である、というバイアスを呈している。
ECEの既存のモデルは、そのような相対的な位置情報を探索し、データセットバイアスに悩まされる傾向がある。
本稿では,相対的な位置情報がもはや原因節の指示的特徴ではない敵例を生成するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2021-06-07T11:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。