論文の概要: FanChuan: A Multilingual and Graph-Structured Benchmark For Parody Detection and Analysis
- arxiv url: http://arxiv.org/abs/2502.16503v1
- Date: Sun, 23 Feb 2025 08:52:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:59:28.991124
- Title: FanChuan: A Multilingual and Graph-Structured Benchmark For Parody Detection and Analysis
- Title(参考訳): FanChuan: パロディ検出と分析のための多言語およびグラフ構造化ベンチマーク
- Authors: Yilun Zheng, Sha Li, Fangkun Wu, Yang Ziyi, Lin Hongchao, Zhichao Hu, Cai Xinjun, Ziming Wang, Jinxuan Chen, Sitao Luan, Jiahao Xu, Lihui Chen,
- Abstract要約: パロディの研究は、利用可能な限られたデータと現在のデータセットの多様性の欠如によって妨げられている。
私たちは、英語と中国語のコーパスから7つのパロディデータセットを構築し、14,755人のアノテートユーザと21,210人のアノテートコメントを作成した。
これらのデータセットを用いて,(1)パロディ検出,(2)パロディを用いたコメント感情分析,(3)パロディを用いたユーザ感情分析の3つの重要な課題について,従来の手法と大規模言語モデル(LLM)を検証した。
- 参考スコア(独自算出の注目度): 17.120526527561704
- License:
- Abstract: Parody is an emerging phenomenon on social media, where individuals imitate a role or position opposite to their own, often for humor, provocation, or controversy. Detecting and analyzing parody can be challenging and is often reliant on context, yet it plays a crucial role in understanding cultural values, promoting subcultures, and enhancing self-expression. However, the study of parody is hindered by limited available data and deficient diversity in current datasets. To bridge this gap, we built seven parody datasets from both English and Chinese corpora, with 14,755 annotated users and 21,210 annotated comments in total. To provide sufficient context information, we also collect replies and construct user-interaction graphs to provide richer contextual information, which is lacking in existing datasets. With these datasets, we test traditional methods and Large Language Models (LLMs) on three key tasks: (1) parody detection, (2) comment sentiment analysis with parody, and (3) user sentiment analysis with parody. Our extensive experiments reveal that parody-related tasks still remain challenging for all models, and contextual information plays a critical role. Interestingly, we find that, in certain scenarios, traditional sentence embedding methods combined with simple classifiers can outperform advanced LLMs, i.e. DeepSeek-R1 and GPT-o3, highlighting parody as a significant challenge for LLMs.
- Abstract(参考訳): パロディ(英: Parody)は、ソーシャルメディアにおいて、ユーモア、挑発、論争のために、個人が自身の役割や立場を模倣する現象である。
パロディの検出と分析は困難であり、文脈に依存することが多いが、文化的な価値観の理解、サブカルチャーの促進、自己表現の強化において重要な役割を担っている。
しかし、パロディの研究は、利用可能な限られたデータと現在のデータセットの多様性の欠如によって妨げられている。
このギャップを埋めるために、私たちは英語と中国語のコーパスから7つのパロディデータセットを構築しました。
十分なコンテキスト情報を提供するため,既存のデータセットに欠けるよりリッチなコンテキスト情報を提供するために,回答を収集し,ユーザインタラクショングラフを構築する。
これらのデータセットを用いて,(1)パロディ検出,(2)パロディを用いたコメント感情分析,(3)パロディを用いたユーザ感情分析の3つの重要な課題について,従来の手法と大規模言語モデル(LLM)を検証した。
我々の広範な実験により、パロディ関連タスクは依然として全てのモデルにとって困難なままであり、文脈情報が重要な役割を果たすことが明らかとなった。
興味深いことに、あるシナリオでは、従来の文埋め込み手法と単純な分類器を組み合わせることで、高度なLLM、すなわちDeepSeek-R1とGPT-o3より優れており、LLMにとって重要な課題であるパロディを強調している。
関連論文リスト
- Show, Don't Tell: Uncovering Implicit Character Portrayal using LLMs [19.829683714192615]
LIIPA(LIIPA)は,大きな言語モデルに暗黙的文字の描写を明らかにするためのフレームワークである。
LIIPAは既存の手法よりも優れており,文字数の増加に対してより堅牢であることがわかった。
我々の研究は、複雑な文字を解析するためにLLMを使うことの潜在的な利点を実証している。
論文 参考訳(メタデータ) (2024-12-05T19:46:53Z) - VLLMs Provide Better Context for Emotion Understanding Through Common Sense Reasoning [66.23296689828152]
我々は、視覚・言語モデルの機能を活用し、文脈内感情分類を強化する。
第1段階では、VLLMが対象者の明らかな感情の自然言語で記述を生成できるように促すことを提案する。
第2段階では、記述を文脈情報として使用し、画像入力とともに、トランスフォーマーベースのアーキテクチャのトレーニングに使用する。
論文 参考訳(メタデータ) (2024-04-10T15:09:15Z) - What Evidence Do Language Models Find Convincing? [94.90663008214918]
議論の的になっているクエリと、さまざまな事実を含む実世界の証拠文書を組み合わせたデータセットを構築します。
このデータセットを用いて、感度と反ファクト分析を行い、どのテキスト特徴がLLM予測に最も影響するかを探索する。
全体として、現在のモデルは、クエリに対するWebサイトの関連性に大きく依存している一方で、人間が重要と考えるスタイル的特徴をほとんど無視している。
論文 参考訳(メタデータ) (2024-02-19T02:15:34Z) - GPT4SGG: Synthesizing Scene Graphs from Holistic and Region-specific Narratives [69.36723767339001]
我々は,より正確で包括的なシーングラフ信号を得るために,textitGPT4SGという新しいフレームワークを提案する。
textitGPT4SGGは、画像キャプチャーデータに基づいて訓練されたSGGモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-12-07T14:11:00Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Can Linguistic Knowledge Improve Multimodal Alignment in Vision-Language
Pretraining? [34.609984453754656]
本研究の目的は,意味表現や構文構造を含む包括的言語知識がマルチモーダルアライメントに与える影響を明らかにすることである。
具体的には、最初の大規模マルチモーダルアライメント探索ベンチマークであるSNAREを設計、リリースする。
論文 参考訳(メタデータ) (2023-08-24T16:17:40Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - How learners produce data from text in classifying clickbait [0.0]
本研究は,テキストデータを用いた学習者がドメインの特定の側面を抽出するシナリオにおける理性について考察する。
私たちのゴールは、見出しを「クリックベイト」または「ニュース」と分類する動機づけタスクを用いて、学生がテキストをデータとして理解することについて光を当てることでした。
論文 参考訳(メタデータ) (2023-01-28T20:23:39Z) - FLUTE: Figurative Language Understanding and Textual Explanations [37.83909874945428]
FLUTEは8000の図式NLIインスタンスのデータセットで、説明とともにリリースします。
我々は、GPT-3を人間の専門家と組み合わせることで、データセットの作成をスケールアップできることを示す。
論文 参考訳(メタデータ) (2022-05-24T23:25:02Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。