論文の概要: Lessons from the Field: An Adaptable Lifecycle Approach to Applied Dialogue Summarization
- arxiv url: http://arxiv.org/abs/2601.08682v1
- Date: Tue, 13 Jan 2026 16:04:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.272767
- Title: Lessons from the Field: An Adaptable Lifecycle Approach to Applied Dialogue Summarization
- Title(参考訳): 現場からの教訓: 対話要約への適応的ライフサイクルアプローチ
- Authors: Kushal Chawla, Chenyang Zhu, Pengshan Cai, Sangwoo Cho, Scott Novotney, Ayushman Singh, Jonah Lewis, Keasha Safewright, Alfy Samuel, Erin Babinsky, Shi-Xiong Zhang, Sambit Sahu,
- Abstract要約: 本稿では,多人数インタラクションを要約するエージェントシステム開発における産業ケーススタディを提案する。
私たちは、信頼性があり適応可能な要約システムを構築する実践者を支援するために、完全な開発ライフサイクルにまたがる実践的な洞察を共有します。
- 参考スコア(独自算出の注目度): 12.244621802309352
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Summarization of multi-party dialogues is a critical capability in industry, enhancing knowledge transfer and operational effectiveness across many domains. However, automatically generating high-quality summaries is challenging, as the ideal summary must satisfy a set of complex, multi-faceted requirements. While summarization has received immense attention in research, prior work has primarily utilized static datasets and benchmarks, a condition rare in practical scenarios where requirements inevitably evolve. In this work, we present an industry case study on developing an agentic system to summarize multi-party interactions. We share practical insights spanning the full development lifecycle to guide practitioners in building reliable, adaptable summarization systems, as well as to inform future research, covering: 1) robust methods for evaluation despite evolving requirements and task subjectivity, 2) component-wise optimization enabled by the task decomposition inherent in an agentic architecture, 3) the impact of upstream data bottlenecks, and 4) the realities of vendor lock-in due to the poor transferability of LLM prompts.
- Abstract(参考訳): 多人数対話の要約は産業において重要な能力であり、多くの領域にわたる知識伝達と運用効率を高める。
しかし、理想的な要約は複雑な多面的要件を満たさなければならないため、高品質な要約を自動的に生成することは困難である。
要約は研究において大きな注目を集めているが、先行研究は主に静的なデータセットとベンチマークを利用しており、要求が必然的に進化する現実的なシナリオでは稀である。
本研究では,多人数インタラクションを要約するエージェントシステムを開発するための業界ケーススタディを提案する。
私たちは、信頼性があり適応可能な要約システムを構築するための実践者を支援するために、開発ライフサイクル全体にわたる実践的な洞察を共有します。
1) 要件及び課題主観性に拘わらず、評価のための堅牢な方法。
2)エージェントアーキテクチャ固有のタスク分解によって実現されるコンポーネントの最適化。
3)上流データボトルネックの影響,そして
4) LLMプロンプトの転送性が悪いため, ベンダーロックインの現実性。
関連論文リスト
- CRMWeaver: Building Powerful Business Agent via Agentic RL and Shared Memories [15.512057716487517]
ビジネスエージェントを複雑な環境で強化する新しいアプローチであるCRMWeaverを提案する。
我々は、学習中に合成データ生成とRLに基づくパラダイムを採用し、複雑なデータを扱うモデルの能力を大幅に改善する。
CRMArena-Proデータセットに対する我々のアプローチの有効性を検証する。
論文 参考訳(メタデータ) (2025-10-29T09:47:40Z) - Learning to Summarize by Learning to Quiz: Adversarial Agentic Collaboration for Long Document Summarization [86.98098988779809]
SummQは長期文書要約のための新しい逆多重エージェントフレームワークである。
提案手法では,包括的な要約を作成し,評価するために協調作業を行う要約ジェネレータとレビュアーを用いる。
広範に使用されている3つの文書要約ベンチマーク上でSummQを評価する。
論文 参考訳(メタデータ) (2025-09-25T08:36:19Z) - EIFBENCH: Extremely Complex Instruction Following Benchmark for Large Language Models [64.70546873396624]
大規模言語モデル(LLM)を評価するためのEIFBENCH(Extremely Complex Instruction following Benchmark)を提案する。
EIFBENCHにはマルチタスクシナリオが含まれており、多様なタスクタイプを同時に総合的に評価することができる。
また,LLMのマルチタスクワークフローを正確に満たす能力を高めるために,セグメントポリシー最適化(SegPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-10T02:39:55Z) - A Practical Approach for Building Production-Grade Conversational Agents with Workflow Graphs [2.7905014064567344]
大きな言語モデル(LLM)は、さまざまなサービスドメインで大幅に改善されました。
産業環境でのSOTA(State-of-the-art)研究の適用は課題を提起する。
論文 参考訳(メタデータ) (2025-05-29T02:30:27Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Retrieval Augmented Generation for Topic Modeling in Organizational Research: An Introduction with Empirical Demonstration [0.0]
本稿では,LLMを用いたトピックモデリング手法として,エージェント検索拡張生成(Agentic RAG)を提案する。
1) LLM の事前訓練された知識を超えた外部データへの自動アクセスを可能にする検索,(2) LLM の機能を利用してテキスト合成を行う生成,(3) エージェント駆動学習, 反復的に検索とクエリの定式化を行う。
本研究は,本手法がより効率的で解釈可能であり,同時に,従来の機械学習手法と比較して信頼性と妥当性が向上することを示した。
論文 参考訳(メタデータ) (2025-02-28T11:25:11Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - NeedleBench: Evaluating LLM Retrieval and Reasoning Across Varying Information Densities [51.07379913779232]
NeedleBenchは、長いコンテキストタスクにおける検索と推論のパフォーマンスを評価するためのフレームワークである。
モデルの機能を厳格にテストするために、キーデータポイントをさまざまな深さに埋め込む。
実験の結果,Deep-R1やOpenAIのo3のような推論モデルは,情報密度シナリオにおける連続的な検索と推論に苦労していることがわかった。
論文 参考訳(メタデータ) (2024-07-16T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。