論文の概要: Information Extraction from Conversation Transcripts: Neuro-Symbolic vs. LLM
- arxiv url: http://arxiv.org/abs/2510.12023v1
- Date: Tue, 14 Oct 2025 00:10:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.122037
- Title: Information Extraction from Conversation Transcripts: Neuro-Symbolic vs. LLM
- Title(参考訳): 会話文からの情報抽出:ニューロシンボリック対LLM
- Authors: Alice Saebom Kwak, Maria Alexeeva, Gus Hahn-Powell, Keith Alcock, Kevin McLaughlin, Doug McCorkle, Gabe McNunn, Mihai Surdeanu,
- Abstract要約: 本稿では,農業領域におけるニューロシンボリック(NS)とLLMベースのIEシステムを比較した。
実世界のアプリケーションにNLPシステムをデプロイする際の "隠れたコスト" を強調した。
- 参考スコア(独自算出の注目度): 13.113443830365542
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The current trend in information extraction (IE) is to rely extensively on large language models, effectively discarding decades of experience in building symbolic or statistical IE systems. This paper compares a neuro-symbolic (NS) and an LLM-based IE system in the agricultural domain, evaluating them on nine interviews across pork, dairy, and crop subdomains. The LLM-based system outperforms the NS one (F1 total: 69.4 vs. 52.7; core: 63.0 vs. 47.2), where total includes all extracted information and core focuses on essential details. However, each system has trade-offs: the NS approach offers faster runtime, greater control, and high accuracy in context-free tasks but lacks generalizability, struggles with contextual nuances, and requires significant resources to develop and maintain. The LLM-based system achieves higher performance, faster deployment, and easier maintenance but has slower runtime, limited control, model dependency and hallucination risks. Our findings highlight the "hidden cost" of deploying NLP systems in real-world applications, emphasizing the need to balance performance, efficiency, and control.
- Abstract(参考訳): 情報抽出(IE)の現在の傾向は、大規模な言語モデルに大きく依存し、象徴的または統計的なIEシステムを構築する何十年もの経験を事実上捨てることである。
本稿では, 農業領域におけるニューロシンボリック(NS)とLLMベースのIEシステムを比較し, 豚, 乳製品, 作物サブドメインの9つのインタビューで評価した。
LLMベースのシステムはNSよりも優れている(F1トータル:69.4 vs. 52.7;コア:63.0 vs. 47.2)。
NSアプローチは、より高速なランタイム、より優れた制御、より高精度な文脈自由なタスクを提供するが、一般化性に欠け、文脈のニュアンスと競合し、開発と維持にかなりのリソースを必要とする。
LLMベースのシステムは、パフォーマンスの向上、デプロイの高速化、メンテナンスの容易化を実現しているが、ランタイムの遅さ、制御の制限、モデルの依存性、幻覚リスクがある。
我々の研究は、NLPシステムを現実世界のアプリケーションにデプロイする際の「隠れたコスト」を強調し、パフォーマンス、効率、制御のバランスをとる必要性を強調した。
関連論文リスト
- TAMO: Fine-Grained Root Cause Analysis via Tool-Assisted LLM Agent with Multi-Modality Observation Data in Cloud-Native Systems [42.50432360919637]
クラウドネイティブシステムにおける大規模言語モデル(LLM)による根本原因分析(RCA)は、現代のソフトウェア運用とメンテナンスにおいて重要なトピックとなっている。
既存のLLMベースのアプローチでは、マルチモード入力制約、コンテキストウィンドウ制限、動的依存グラフの3つの大きな課題に直面している。
細粒度RCA,すなわちTAMOのための多モード観測データを用いたツール支援LDMエージェントを提案する。
論文 参考訳(メタデータ) (2025-04-29T06:50:48Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Developing a Reliable, Fast, General-Purpose Hallucination Detection and Mitigation Service [36.216938133315786]
大型言語モデル(LLM)における幻覚の発見と修正を目的とした信頼性の高い高速生産システムを提案する。
本システムでは,名前付きエンティティ認識(NER),自然言語推論(NLI),スパンベース検出(SBD),および最適精度,応答時間,費用対効果の混合を維持する書き換え機構を備える。
論文 参考訳(メタデータ) (2024-07-22T07:48:30Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Data-Juicer: A One-Stop Data Processing System for Large Language Models [73.27731037450995]
データレシピは、大規模言語モデル(LLM)をトレーニングするための異なるソースからのデータの混合である。
我々はData-Juicerという新しいシステムを構築し、多様なデータレシピを効率的に生成できる。
Data-Juicerから派生したデータレシピは、最先端のLLMで顕著に改善されている。
論文 参考訳(メタデータ) (2023-09-05T08:22:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。