論文の概要: MaRGen: Multi-Agent LLM Approach for Self-Directed Market Research and Analysis
- arxiv url: http://arxiv.org/abs/2508.01370v1
- Date: Sat, 02 Aug 2025 13:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.845023
- Title: MaRGen: Multi-Agent LLM Approach for Self-Directed Market Research and Analysis
- Title(参考訳): MaRGen:自己指向型市場研究と分析のためのマルチエージェントLLMアプローチ
- Authors: Roman Koshkin, Pengyu Dai, Nozomi Fujikawa, Masahito Togami, Marco Visentini-Scarzanella,
- Abstract要約: エンド・ツー・エンドのビジネス分析と市場レポート生成を自動化する自律的なフレームワークを提案する。
その中核となるのは、データを分析し、包括的なレポートを生成するために協力する特殊なエージェントだ。
このフレームワークは、データベースのクエリ、データ分析、洞察の生成、可視化の作成、市場レポートの作成など、多段階のプロセスを実行する。
- 参考スコア(独自算出の注目度): 20.59282767847679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an autonomous framework that leverages Large Language Models (LLMs) to automate end-to-end business analysis and market report generation. At its core, the system employs specialized agents - Researcher, Reviewer, Writer, and Retriever - that collaborate to analyze data and produce comprehensive reports. These agents learn from real professional consultants' presentation materials at Amazon through in-context learning to replicate professional analytical methodologies. The framework executes a multi-step process: querying databases, analyzing data, generating insights, creating visualizations, and composing market reports. We also introduce a novel LLM-based evaluation system for assessing report quality, which shows alignment with expert human evaluations. Building on these evaluations, we implement an iterative improvement mechanism that optimizes report quality through automated review cycles. Experimental results show that report quality can be improved by both automated review cycles and consultants' unstructured knowledge. In experimental validation, our framework generates detailed 6-page reports in 7 minutes at a cost of approximately \$1. Our work could be an important step to automatically create affordable market insights.
- Abstract(参考訳): 本稿では,Large Language Models(LLMs)を活用して,エンドツーエンドのビジネス分析と市場レポート生成を自動化する自律型フレームワークを提案する。
その中核となるのは、データ分析と包括的なレポート作成に協力する専門エージェント(Researcher, Reviewer, Writer, Retriever)である。
これらのエージェントは、Amazonの実際の専門家のプレゼンテーション資料からコンテキスト内学習を通じて学び、プロの分析方法論を再現する。
このフレームワークは、データベースのクエリ、データ分析、洞察の生成、可視化の作成、市場レポートの作成など、多段階のプロセスを実行する。
また,報告品質評価のためのLCMに基づく新しい評価システムを導入し,専門家による評価と整合性を示す。
これらの評価に基づいて,自動レビューサイクルを通じてレポート品質を最適化する反復的改善機構を実装した。
実験結果から,自動レビューサイクルとコンサルタントの非構造化知識によって,レポートの品質が向上できることが示唆された。
実験的な検証では,約1ドルの費用で,詳細な6ページのレポートを7分で生成する。
私たちの仕事は、手頃な価格の市場洞察を自動生成するための重要なステップかもしれません。
関連論文リスト
- AI Analyst: Framework and Comprehensive Evaluation of Large Language Models for Financial Time Series Report Generation [16.88763856265673]
生成したレポート内の情報を分類する自動ハイライトシステムを導入する。
本実験は,実市場指標と合成時系列のデータの両方を用いて,協調的かつ情報的財務報告を作成できるLCMの能力を実証するものである。
論文 参考訳(メタデータ) (2025-07-01T12:57:18Z) - Data-to-Dashboard: Multi-Agent LLM Framework for Insightful Visualization in Enterprise Analytics [2.7933239275667545]
モジュール型LCMエージェントによるデータ・ダッシュボード・パイプラインの自動化を行うエージェントシステムを提案する。
既存のグラフシステムとは異なり、我々のフレームワークはビジネスアナリストの分析的推論プロセスをシミュレートする。
提案手法は, 評価指標の調整により, 洞察力, ドメイン関連性, 分析深度が向上したことを示す。
論文 参考訳(メタデータ) (2025-05-29T17:32:15Z) - IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis [60.32962597618861]
IDA-Benchは、多ラウンドの対話シナリオで大規模言語モデルを評価する新しいベンチマークである。
エージェント性能は、最終的な数値出力と人間由来のベースラインを比較して判断する。
最先端のコーディングエージェント(Claude-3.7-thinkingなど)でさえ50%のタスクを成功させ、シングルターンテストでは明らかでない制限を強調している。
論文 参考訳(メタデータ) (2025-05-23T09:37:52Z) - Learning to Align Multi-Faceted Evaluation: A Unified and Robust Framework [61.38174427966444]
大規模言語モデル(LLM)は、様々なシナリオにおける自動評価のために、より広く使われている。
従来の研究では、強力なプロプライエタリモデルの評価と判断を再現するために、オープンソースのLLMを微調整しようと試みてきた。
本稿では,評価基準を適応的に定式化し,テキストベースとコード駆動分析の両方を合成する新しい評価フレームワークARJudgeを提案する。
論文 参考訳(メタデータ) (2025-02-26T06:31:45Z) - AIRepr: An Analyst-Inspector Framework for Evaluating Reproducibility of LLMs in Data Science [5.064778712920176]
大規模言語モデル(LLM)は、実行可能なコード生成を通じてデータ分析を自動化するために、ますます使われるようになっている。
LLM 生成データ解析の $itRepr$oducibility を自動的に評価し,改善するための $itA$nalyst - $itI$nspector フレームワークである $itAIRepr を提示する。
論文 参考訳(メタデータ) (2025-02-23T01:15:50Z) - FinSphere, a Real-Time Stock Analysis Agent Powered by Instruction-Tuned LLMs and Domain Tools [7.6993069412225905]
現在の金融大規模言語モデル(FinLLM)は2つの限界に悩まされている。
株価分析レポートの品質評価のための客観的評価指標の欠如と、株価分析の深みの欠如は、彼らのプロフェッショナルグレードの洞察を生み出す能力を妨げている。
本稿では、ストック分析エージェントであるFinSphereと3つの主要な貢献について紹介する。
論文 参考訳(メタデータ) (2025-01-08T07:50:50Z) - InsightBench: Evaluating Business Analytics Agents Through Multi-Step Insight Generation [79.09622602860703]
3つの重要な特徴を持つベンチマークデータセットであるInsightBenchを紹介します。
財務やインシデント管理といったさまざまなビジネスユースケースを表す100のデータセットで構成されている。
単一のクエリに回答することに焦点を当てた既存のベンチマークとは異なり、InsightBenchは、エンドツーエンドのデータ分析を実行する能力に基づいてエージェントを評価する。
論文 参考訳(メタデータ) (2024-07-08T22:06:09Z) - Automatic benchmarking of large multimodal models via iterative experiment programming [71.78089106671581]
本稿では,LMMの自動ベンチマークのための最初のフレームワークであるAPExを紹介する。
自然言語で表現された研究の質問に対して、APExは大きな言語モデル(LLM)と事前定義されたツールのライブラリを活用して、手元にあるモデルの一連の実験を生成する。
調査の現在の状況に基づいて、APExはどの実験を行うか、結果が結論を引き出すのに十分かどうかを選択する。
論文 参考訳(メタデータ) (2024-06-18T06:43:46Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - LLM Comparator: Visual Analytics for Side-by-Side Evaluation of Large
Language Models [31.426274932333264]
自動側評価から結果をインタラクティブに分析する新しいビジュアル分析ツールであるComparatorを提案する。
このツールは、モデルがベースラインモデルよりも優れているか悪いかを、ユーザがいつ、なぜ理解するかを対話的にサポートする。
論文 参考訳(メタデータ) (2024-02-16T09:14:49Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。