論文の概要: MAPEX: A Multi-Agent Pipeline for Keyphrase Extraction
- arxiv url: http://arxiv.org/abs/2509.18813v1
- Date: Tue, 23 Sep 2025 09:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.786781
- Title: MAPEX: A Multi-Agent Pipeline for Keyphrase Extraction
- Title(参考訳): MAPEX: キーワード抽出のためのマルチエージェントパイプライン
- Authors: Liting Zhang, Shiwan Zhao, Aobo Kong, Qicheng Li,
- Abstract要約: キーフレーズ抽出にマルチエージェント協調を導入するMAPEXを提案する。
MAPEXは、専門家の募集、候補者抽出、トピックガイダンス、知識増強、後処理のためのモジュールを通してLLMベースのエージェントをコーディネートする。
二重パス戦略は文書長に動的に適応する: 短文の知識駆動抽出と長文のトピック誘導抽出である。
- 参考スコア(独自算出の注目度): 17.455890872696894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keyphrase extraction is a fundamental task in natural language processing. However, existing unsupervised prompt-based methods for Large Language Models (LLMs) often rely on single-stage inference pipelines with uniform prompting, regardless of document length or LLM backbone. Such one-size-fits-all designs hinder the full exploitation of LLMs' reasoning and generation capabilities, especially given the complexity of keyphrase extraction across diverse scenarios. To address these challenges, we propose MAPEX, the first framework that introduces multi-agent collaboration into keyphrase extraction. MAPEX coordinates LLM-based agents through modules for expert recruitment, candidate extraction, topic guidance, knowledge augmentation, and post-processing. A dual-path strategy dynamically adapts to document length: knowledge-driven extraction for short texts and topic-guided extraction for long texts. Extensive experiments on six benchmark datasets across three different LLMs demonstrate its strong generalization and universality, outperforming the state-of-the-art unsupervised method by 2.44\% and standard LLM baselines by 4.01\% in F1@5 on average. Code is available at https://github.com/NKU-LITI/MAPEX.
- Abstract(参考訳): キーワード抽出は自然言語処理の基本的な課題である。
しかしながら、既存のLLM(Large Language Models)の教師なしプロンプトベースのメソッドは、文書の長さやLLMバックボーンに関わらず、一様プロンプトを持つ単一ステージの推論パイプラインに依存していることが多い。
このようなワンサイズな設計は、様々なシナリオでキーフレーズ抽出の複雑さを考えると、LLMの推論と生成能力のフル活用を妨げる。
これらの課題に対処するために,キーフレーズ抽出にマルチエージェント協調を導入する最初のフレームワークMAPEXを提案する。
MAPEXは、専門家の募集、候補者抽出、トピックガイダンス、知識増強、後処理のためのモジュールを通じてLLMベースのエージェントをコーディネートする。
二重パス戦略は文書長に動的に適応する: 短文の知識駆動抽出と長文のトピック誘導抽出である。
3つの異なるLLMにまたがる6つのベンチマークデータセットの大規模な実験は、その強力な一般化と普遍性を示し、F1@5では、最先端の教師なし手法を2.44 %、標準のLLMベースラインを4.01 %上回った。
コードはhttps://github.com/NKU-LITI/MAPEXで入手できる。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Towards Event Extraction with Massive Types: LLM-based Collaborative Annotation and Partitioning Extraction [66.73721939417507]
大規模言語モデル(LLM)に基づく協調アノテーション手法を提案する。
また, LLM-PEE と呼ばれる LLM-based Partitioning EE 法を提案する。
その結果,LLM-PEEは事象検出では5.4,引数抽出では6.1,最先端手法では6.1に優れていた。
論文 参考訳(メタデータ) (2025-03-04T13:53:43Z) - Emulating Retrieval Augmented Generation via Prompt Engineering for Enhanced Long Context Comprehension in LLMs [23.960451986662996]
本稿では,レトリーバル拡張生成(RAG)を特殊エンジニアリングとチェーンオブ思考推論によりエミュレートする手法を提案する。
我々は,BABILong から選択したタスクに対するアプローチを評価し,大量の散逸テキストを用いた標準 bAbI QA 問題をインターリーブする。
論文 参考訳(メタデータ) (2025-02-18T02:49:40Z) - Redefining Simplicity: Benchmarking Large Language Models from Lexical to Document Simplification [21.727596753351072]
テキスト単純化(英: Text simplification, TS)とは、テキストの複雑さを減らし、本来の意味とキー情報を保持する過程である。
既存の研究は、大きな言語モデル(LLM)が、文の単純化に関する非LLMベースの手法よりも優れていることを示しているだけである。
論文 参考訳(メタデータ) (2025-02-12T10:38:22Z) - MM-Embed: Universal Multimodal Retrieval with Multimodal LLMs [78.5013630951288]
本稿では,マルチモーダル大言語モデル(MLLM)を用いた情報検索手法を提案する。
まず,16個の検索タスクを持つ10個のデータセットに対して,MLLMをバイエンコーダレトリバーとして微調整する。
我々のモデルMM-Embedはマルチモーダル検索ベンチマークM-BEIR上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-04T20:06:34Z) - A Guide To Effectively Leveraging LLMs for Low-Resource Text Summarization: Data Augmentation and Semi-supervised Approaches [12.582774521907227]
低リソーステキスト要約のための既存のアプローチは、主に推論時に大きな言語モデル(LLM)を使用して要約を直接生成する。
低リソーステキスト要約に LLM を効果的に活用する2つの新しい手法を提案する: 1) LLM ベースのデータ拡張方式である MixSumm と、(2) PPSL は、サンプル効率の半教師付きテキスト要約のための即時的な擬似ラベル方式である。
論文 参考訳(メタデータ) (2024-07-10T03:25:47Z) - LaMSUM: Amplifying Voices Against Harassment through LLM Guided Extractive Summarization of User Incident Reports [6.770555526416268]
インドのセーフシティのような市民報告プラットフォームは、公衆や当局がセクシャルハラスメント事件について情報を提供し続けるのを助けている。
様々なインドのコード混在言語を処理・理解できる要約アルゴリズムが不可欠である。
セーフシティ・ポストのコレクションを抽出するための多層フレームワークであるLaMSUMを紹介した。
論文 参考訳(メタデータ) (2024-06-22T10:25:55Z) - PromptReps: Prompting Large Language Models to Generate Dense and Sparse Representations for Zero-Shot Document Retrieval [76.50690734636477]
本稿では,PmptRepsを提案する。このPmptRepsは,トレーニングを必要とせず,コーパス全体から検索できる機能である。
検索システムは、高密度テキスト埋め込みとスパースバッグ・オブ・ワード表現の両方を利用する。
論文 参考訳(メタデータ) (2024-04-29T04:51:30Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - PEARL: Prompting Large Language Models to Plan and Execute Actions Over
Long Documents [78.27865456183397]
長い文書に対する推論を改善するためのフレームワークであるPEARLを提案する。
PEARLの各ステージは、最小限の人間の入力でゼロショットまたは少数ショットのプロンプトによって実装される。
PEARLをQuALITYデータセットの挑戦的なサブセットで評価し、長い物語テキストに対して複雑な推論を必要とする質問を含む。
論文 参考訳(メタデータ) (2023-05-23T23:06:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。