論文の概要: CAF-I: A Collaborative Multi-Agent Framework for Enhanced Irony Detection with Large Language Models
- arxiv url: http://arxiv.org/abs/2506.08430v1
- Date: Tue, 10 Jun 2025 04:05:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.458716
- Title: CAF-I: A Collaborative Multi-Agent Framework for Enhanced Irony Detection with Large Language Models
- Title(参考訳): CAF-I:大規模言語モデルによるIrony検出の強化のための協調的マルチエージェントフレームワーク
- Authors: Ziqi. Liu, Ziyang. Zhou, Mingxuan. Hu,
- Abstract要約: 本稿ではCAF-I(Collaborative Agent Framework for Irony)を紹介する。
CAF-Iはコンテキスト、セマンティック、レトリックの特殊エージェントを使用し、多次元解析を行う。
ベンチマークデータセットの実験は、CAF-Iの最先端のゼロショット性能を確立する。
- 参考スコア(独自算出の注目度): 10.551915512812107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model (LLM) have become mainstream methods in the field of sarcasm detection. However, existing LLM methods face challenges in irony detection, including: 1. single-perspective limitations, 2. insufficient comprehensive understanding, and 3. lack of interpretability. This paper introduces the Collaborative Agent Framework for Irony (CAF-I), an LLM-driven multi-agent system designed to overcome these issues. CAF-I employs specialized agents for Context, Semantics, and Rhetoric, which perform multidimensional analysis and engage in interactive collaborative optimization. A Decision Agent then consolidates these perspectives, with a Refinement Evaluator Agent providing conditional feedback for optimization. Experiments on benchmark datasets establish CAF-I's state-of-the-art zero-shot performance. Achieving SOTA on the vast majority of metrics, CAF-I reaches an average Macro-F1 of 76.31, a 4.98 absolute improvement over the strongest prior baseline. This success is attained by its effective simulation of human-like multi-perspective analysis, enhancing detection accuracy and interpretability.
- Abstract(参考訳): 大規模言語モデル (LLM) はサルカズム検出の分野で主流の手法となっている。
しかし、既存のLLM法は、皮肉検出の課題に直面している。
1. 単一パースペクティブ制限。
2. 包括的理解が不十分で
3. 解釈可能性の欠如
本稿では,LLM駆動型マルチエージェントシステムであるCollaborative Agent Framework for Irony (CAF-I)を紹介する。
CAF-Iはコンテキスト、セマンティック、レトリックの特殊エージェントを採用し、多次元解析を行い、協調的な協調最適化を行う。
決定エージェントはこれらの視点を集約し、最適化のための条件付きフィードバックを提供するRefinement Evaluator Agentを提供する。
ベンチマークデータセットの実験は、CAF-Iの最先端のゼロショット性能を確立する。
SOTAをほとんどの指標で達成し、CAF-Iは平均で76.31のマクロF1に達し、最強のベースラインよりも4.98の絶対的な改善を達成した。
この成功は、人間のようなマルチパースペクティブ分析を効果的にシミュレーションし、検出精度と解釈可能性を高めることで達成される。
関連論文リスト
- Heterogeneous Group-Based Reinforcement Learning for LLM-based Multi-Agent Systems [25.882461853973897]
本稿では、相対報酬の利点を推定して政策更新を導くマルチエージェント不均一グループ政策最適化(MHGPO)を提案する。
MHGPOは、批判的ネットワークの必要性を排除し、安定性を向上し、計算オーバーヘッドを減らす。
また,効率性と有効性を両立させる3つのグループロールアウトサンプリング戦略も導入する。
論文 参考訳(メタデータ) (2025-06-03T10:17:19Z) - ReAgent-V: A Reward-Driven Multi-Agent Framework for Video Understanding [71.654781631463]
ReAgent-Vは、新しいエージェントビデオ理解フレームワークである。
推論中に効率の良いフレーム選択とリアルタイムの報酬生成を統合する。
12のデータセットに対する大規模な実験は、一般化と推論において大きな成果を上げている。
論文 参考訳(メタデータ) (2025-06-02T04:23:21Z) - Unifying Language Agent Algorithms with Graph-based Orchestration Engine for Reproducible Agent Research [32.92036657863354]
大規模言語モデル(LLM)を利用した言語エージェントは、複雑なタスクの理解、推論、実行において顕著な能力を示した。
しかし、堅牢なエージェントの開発には、相当なエンジニアリングオーバーヘッド、標準化されたコンポーネントの欠如、公正な比較のための十分な評価フレームワークなど、大きな課題がある。
我々はこれらの課題に対処するフレキシブルで抽象的なフレームワークであるAGORA(Agent Graph-based Orchestration for Reasoning and Assessment)を紹介した。
論文 参考訳(メタデータ) (2025-05-30T08:46:23Z) - CAFES: A Collaborative Multi-Agent Framework for Multi-Granular Multimodal Essay Scoring [15.197083495600998]
CAFESはAES用に特別に設計された初の協調型マルチエージェントフレームワークである。
それは3つの特殊エージェントを編成する: 迅速で特性特異的な評価のためのイニシャル・スコーラー、詳細なエビデンスに基づく強さを集約するフィードバックプールマネージャ、このフィードバックに基づいてスコアを反復的に洗練して人間のアライメントを強化するリフレクティブ・スコーラー。
論文 参考訳(メタデータ) (2025-05-20T06:05:56Z) - Detect, Explain, Escalate: Low-Carbon Dialogue Breakdown Management for LLM-Powered Agents [30.13634341221476]
大規模言語モデル(LLM)は、多くのアプリケーションを変えつつありますが、会話のブレークダウンへの感受性は、ユーザ信頼を損なう重要な課題です。
本稿では,低炭素運転を重視したLDMエージェントの対話分解を管理するためのフレームワーク「Detect, Explain, Escalate」を提案する。
論文 参考訳(メタデータ) (2025-04-26T07:51:05Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - X2-DFD: A framework for eXplainable and eXtendable Deepfake Detection [55.77552681618732]
X2-DFDは、eXplainableおよびeXtendableフレームワークであり、ディープフェイク検出のためのマルチモーダルな多言語モデル(MLLM)に基づいている。
最初の段階であるモデル特徴評価は、MLLMの偽造関係の特徴の検出可能性を体系的に評価する。
2番目のステージであるExplainable dataset Constructionは、Strong Feature StrengtheningとWeak Feature Supplementingの2つの重要なモジュールで構成されている。
3番目のステージであるファインチューニングと推論では、構築されたデータセット上でMLLMを微調整し、最終的な検出と説明のためにデプロイする。
論文 参考訳(メタデータ) (2024-10-08T15:28:33Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [74.16170899755281]
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
AgentBoardは、インクリメンタルな進歩と包括的な評価ツールキットをキャプチャする、きめ細かい進捗率のメトリクスを提供する。
これはLLMエージェントの能力と限界に光を当てるだけでなく、その性能の解釈可能性も最前線に広める。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。