論文の概要: Sustainable Digitalization of Business with Multi-Agent RAG and LLM
- arxiv url: http://arxiv.org/abs/2502.15700v1
- Date: Mon, 06 Jan 2025 08:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 05:53:44.680596
- Title: Sustainable Digitalization of Business with Multi-Agent RAG and LLM
- Title(参考訳): マルチエージェントRAGとLCMによるビジネスの持続的デジタル化
- Authors: Muhammad Arslan, Saba Munawar, Christophe Cruz,
- Abstract要約: 本研究では,Large Language Models(LLM)とRetrieval-Augmented Generation(RAG)の統合について検討する。
既存のLCMを用いて,多様なデータセットに対応可能な持続可能なビジネスソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.6385815610837167
- License:
- Abstract: Businesses heavily rely on data sourced from various channels like news articles, financial reports, and consumer reviews to drive their operations, enabling informed decision-making and identifying opportunities. However, traditional manual methods for data extraction are often time-consuming and resource-intensive, prompting the adoption of digital transformation initiatives to enhance efficiency. Yet, concerns persist regarding the sustainability of such initiatives and their alignment with the United Nations (UN)'s Sustainable Development Goals (SDGs). This research aims to explore the integration of Large Language Models (LLMs) with Retrieval-Augmented Generation (RAG) as a sustainable solution for Information Extraction (IE) and processing. The research methodology involves reviewing existing solutions for business decision-making, noting that many systems require training new machine learning models, which are resource-intensive and have significant environmental impacts. Instead, we propose a sustainable business solution using pre-existing LLMs that can work with diverse datasets. We link domain-specific datasets to tailor LLMs to company needs and employ a Multi-Agent architecture to divide tasks such as information retrieval, enrichment, and classification among specialized agents. This approach optimizes the extraction process and improves overall efficiency. Through the utilization of these technologies, businesses can optimize resource utilization, improve decision-making processes, and contribute to sustainable development goals, thereby fostering environmental responsibility within the corporate sector.
- Abstract(参考訳): 企業は、ニュース記事や財務報告、消費者レビューなど、さまざまなチャネルから得られたデータに大きく依存して、その運用を推進し、情報的な意思決定と機会の特定を可能にしている。
しかし、従来の手作業によるデータ抽出は、しばしば時間がかかり、リソースが集中的に行われるため、効率を高めるためのデジタルトランスフォーメーションイニシアチブが採用される。
しかし、これらのイニシアチブの持続可能性や国連の持続可能な開発目標(SDG)との整合性に関する懸念が続いている。
本研究の目的は,情報抽出と処理の持続可能なソリューションとして,Large Language Models(LLM)とRetrieval-Augmented Generation(RAG)の統合を検討することである。
この研究手法には、既存のビジネス意思決定ソリューションをレビューすることが含まれており、多くのシステムは、リソース集約的で環境に重大な影響を及ぼす新しい機械学習モデルをトレーニングする必要があることを指摘している。
代わりに、既存のLCMを使用して、多様なデータセットで動作可能な持続可能なビジネスソリューションを提案する。
ドメイン固有のデータセットを企業のニーズに合わせたLLMにリンクし、Multi-Agentアーキテクチャを用いて情報検索、強化、特殊エージェント間の分類などのタスクを分割する。
このアプローチは抽出プロセスを最適化し、全体的な効率を改善する。
これらの技術を活用することで、企業は資源利用を最適化し、意思決定プロセスを改善し、持続可能な開発目標に貢献し、企業内の環境責任を育むことができる。
関連論文リスト
- Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - The Potential of Large Language Models in Supply Chain Management: Advancing Decision-Making, Efficiency, and Innovation [0.5497663232622965]
大規模言語モデル(LLM)とサプライチェーン管理(SCM)の統合は、業界に革命をもたらしている。
本稿では、需要予測、在庫管理、サプライヤー関係管理、物流最適化など、LCMが様々なSCM機能に与える影響について検討する。
バイアス軽減とデータ保護を含む倫理的考慮は、公正で透明なAIプラクティスを保証するために考慮される。
論文 参考訳(メタデータ) (2025-01-26T05:41:50Z) - EVOLvE: Evaluating and Optimizing LLMs For Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Towards Automated Solution Recipe Generation for Industrial Asset Management with LLM [4.771737213319029]
本研究では,Large Language Models(LLMs)の最近の進歩に条件ベースマネジメント(CBM)の原則を取り入れた,産業資産管理(IAM)への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-26T01:24:52Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Beyond Efficiency: A Systematic Survey of Resource-Efficient Large Language Models [32.774929826684854]
LLM(Large Language Models)は、計算、メモリ、エネルギー、金融資源の高消費に課題をもたらす。
本調査は, LLMの資源効率向上を目的とした多種多様な手法を概観することにより, これらの課題を体系的に解決することを目的としている。
論文 参考訳(メタデータ) (2024-01-01T01:12:42Z) - A Study on the Implementation of Generative AI Services Using an
Enterprise Data-Based LLM Application Architecture [0.0]
本研究では,Large Language Models (LLM) アプリケーションアーキテクチャを用いて生成AIサービスを実装する手法を提案する。
この研究は、不十分なデータの問題を軽減するための戦略を練り上げ、カスタマイズされたソリューションを提供している。
この研究の重要な貢献は、検索型拡張世代(RAG)モデルの開発である。
論文 参考訳(メタデータ) (2023-09-03T07:03:17Z) - Automatic Resource Allocation in Business Processes: A Systematic Literature Survey [0.0699049312989311]
リソース割り当ては複雑な意思決定の問題であり、プロセスの有効性と効率に大きな影響を与えます。
研究アロケーションを自動で支援するために、幅広いアプローチが開発された。
論文 参考訳(メタデータ) (2021-07-15T11:40:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。