論文の概要: Agent-based Automated Claim Matching with Instruction-following LLMs
- arxiv url: http://arxiv.org/abs/2510.23924v1
- Date: Mon, 27 Oct 2025 23:09:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.612228
- Title: Agent-based Automated Claim Matching with Instruction-following LLMs
- Title(参考訳): エージェントベース自動クレームマッチングと命令追従LLM
- Authors: Dina Pisarevskaya, Arkaitz Zubiaga,
- Abstract要約: 本稿では,まず LLM でプロンプトを生成し,次に LLM でバイナリ分類タスクとしてクレームマッチングを行う2段階パイプラインを提案する。
LLM生成プロンプトは、人為的なプロンプトでSOTAを上回り、より小さなLSMは生成過程において大きなプロンプトと同等に機能することを示した。
本研究は,LCMのクレームマッチングに対する理解に関する知見を明らかにする。
- 参考スコア(独自算出の注目度): 10.59972039391162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel agent-based approach for the automated claim matching task with instruction-following LLMs. We propose a two-step pipeline that first generates prompts with LLMs, to then perform claim matching as a binary classification task with LLMs. We demonstrate that LLM-generated prompts can outperform SOTA with human-generated prompts, and that smaller LLMs can do as well as larger ones in the generation process, allowing to save computational resources. We also demonstrate the effectiveness of using different LLMs for each step of the pipeline, i.e. using an LLM for prompt generation, and another for claim matching. Our investigation into the prompt generation process in turn reveals insights into the LLMs' understanding of claim matching.
- Abstract(参考訳): 本稿では,命令追従 LLM を用いた自動クレームマッチングタスクに対するエージェントベースアプローチを提案する。
本稿では,まず LLM でプロンプトを生成し,次に LLM でバイナリ分類タスクとしてクレームマッチングを行う2段階パイプラインを提案する。
我々は、LLM生成プロンプトが、人間生成プロンプトでSOTAより優れており、より小さなLLMは、生成プロセスにおいて、より大きなプロンプトと同様に可能であり、計算資源を節約できることを示した。
また,パイプラインの各ステップに異なるLSM,即時生成にLLM,クレームマッチングに別のLSMを用いることの有効性を示す。
本研究は,LCMのクレームマッチングに対する理解に関する知見を明らかにする。
関連論文リスト
- Neural Bandit Based Optimal LLM Selection for a Pipeline of Tasks [11.389019661082415]
本稿では,各サブタスク上でLLMの成功をオンラインにモデル化するニューラルネットワークをトレーニングするニューラルネットワークのコンテキスト帯域ベースアルゴリズムを提案する。
通信質問応答と診断予測データセットの実験から,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2025-08-13T17:19:41Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - LLMmap: Fingerprinting For Large Language Models [15.726286532500971]
LLMmapは、わずか8つのインタラクションで、95%以上の精度で42の異なるLLMバージョンを正確に識別することができる。
潜在的な軽減策について議論し、資源に満ちた敵に対して、効果的な対策が困難か、あるいは実現不可能であることを実証する。
論文 参考訳(メタデータ) (2024-07-22T17:59:45Z) - RePrompt: Planning by Automatic Prompt Engineering for Large Language Models Agents [27.807695570974644]
LLMエージェントに与えられたプロンプトのステップバイステップ命令を最適化するために、段階的な降下を行う新しい方法、textscRePromptを提案する。
中間的なフィードバックを活用することで、 textscRePromptは最終的なソリューションチェッカーを必要とせずにプロンプトを最適化できる。
論文 参考訳(メタデータ) (2024-06-17T01:23:11Z) - EnvGen: Generating and Adapting Environments via LLMs for Training Embodied Agents [65.38474102119181]
トレーニング環境を適応的に作成するフレームワークであるEnvGenを提案する。
我々は、LLM生成環境とLLM生成環境を混合した小さなRLエージェントを訓練する。
我々は、EnvGenで訓練された小さなRLエージェントが、GPT-4エージェントを含むSOTAメソッドより優れており、長い水平タスクをかなり高速に学習できることを発見した。
論文 参考訳(メタデータ) (2024-03-18T17:51:16Z) - LLM Maybe LongLM: Self-Extend LLM Context Window Without Tuning [67.39585115936329]
LLMには、微調整なしで長いコンテキストを処理できる固有の能力がある、と我々は主張する。
バイレベルアテンション情報を構築することで,LLMのコンテキストウィンドウを拡張するためのSelfExtendを提案する。
複数のベンチマークで包括的な実験を行い、その結果、既存のLLMのコンテキストウィンドウ長を効果的に拡張できることが示されている。
論文 参考訳(メタデータ) (2024-01-02T18:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。