論文の概要: Generative AI for Business Strategy: Using Foundation Models to Create
Business Strategy Tools
- arxiv url: http://arxiv.org/abs/2308.14182v1
- Date: Sun, 27 Aug 2023 19:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:26:00.602925
- Title: Generative AI for Business Strategy: Using Foundation Models to Create
Business Strategy Tools
- Title(参考訳): ビジネス戦略のための生成AI:ビジネス戦略ツールの作成に基礎モデルを使用する
- Authors: Son The Nguyen, Theja Tulabandhula
- Abstract要約: ビジネス意思決定における基礎モデルの利用を提案する。
私たちは、署名されたビジネスネットワークの出現という形で、ITアーティファクトを導き出します。
このようなアーティファクトは、市場の状態と自身のポジションについて、ビジネスステークホルダーに通知することができる。
- 参考スコア(独自算出の注目度): 0.7784248206747153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models (foundation models) such as LLMs (large language models)
are having a large impact on multiple fields. In this work, we propose the use
of such models for business decision making. In particular, we combine
unstructured textual data sources (e.g., news data) with multiple foundation
models (namely, GPT4, transformer-based Named Entity Recognition (NER) models
and Entailment-based Zero-shot Classifiers (ZSC)) to derive IT (information
technology) artifacts in the form of a (sequence of) signed business networks.
We posit that such artifacts can inform business stakeholders about the state
of the market and their own positioning as well as provide quantitative
insights into improving their future outlook.
- Abstract(参考訳): LLM(大規模言語モデル)のような生成モデル(基礎モデル)は、複数の分野に大きな影響を与えている。
本稿では,ビジネス意思決定におけるそのようなモデルの利用を提案する。
特に、構造化されていないテキストデータソース(ニュースデータなど)と、複数の基盤モデル(GPT4、トランスフォーマーベースの名前付きエンティティ認識(NER)モデルとエンターメントベースのゼロショット分類器(ZSC))を組み合わせることで、IT(情報技術)アーティファクトを(一連の)署名されたビジネスネットワークとして導き出す。
このようなアーティファクトは、市場の状態やその位置についてビジネスの利害関係者に知らせ、将来の展望を改善するための定量的な洞察を提供することができると仮定する。
関連論文リスト
- Aggregated Knowledge Model: Enhancing Domain-Specific QA with Fine-Tuned and Retrieval-Augmented Generation Models [0.0]
本稿では,クローズドドメイン質問応答システム(QA)の新たなアプローチを提案する。
ローレンス・バークレー国立研究所(LBL)科学情報技術(ScienceIT)ドメインの特定のニーズに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-24T00:49:46Z) - What matters when building vision-language models? [52.8539131958858]
我々は、80億のパラメータを持つ効率的な基礎的視覚言語モデルであるIdefics2を開発した。
Idefics2は、様々なマルチモーダルベンチマークで、そのサイズカテゴリ内で最先端のパフォーマンスを達成する。
トレーニング用に作成されたデータセットとともに、モデル(ベース、指示、チャット)をリリースします。
論文 参考訳(メタデータ) (2024-05-03T17:00:00Z) - Hybrid LLM/Rule-based Approaches to Business Insights Generation from Structured Data [0.0]
広範囲で多様なデータセットから実行可能な洞察を抽出する能力は、情報的な意思決定と競合するエッジの維持に不可欠である。
従来のルールベースのシステムは信頼できるが、現代のビジネスデータの複雑さとダイナミズムに直面したとき、しばしば不足する。
本稿では,ルールベースシステムのロバスト性と大規模言語モデルの適応力を統合するハイブリッドアプローチの有効性について検討する。
論文 参考訳(メタデータ) (2024-04-24T02:42:24Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Enhancing Knowledge Graph Construction Using Large Language Models [0.0]
本稿では,ChatGPTのような基礎LPMの現在の進歩を,REBELのような特定の事前学習モデルと比較し,結合実体と関係抽出について述べる。
生テキストから知識グラフを自動生成するためのパイプラインを作成し,高度なLCMモデルを用いることで,非構造化テキストからこれらのグラフを作成するプロセスの精度が向上することを示した。
論文 参考訳(メタデータ) (2023-05-08T12:53:06Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - A Case for Business Process-Specific Foundation Models [6.25118865553438]
ビジネスプロセスデータ表現には,新たな基盤モデルの開発を保証できるユニークな特徴がある,と我々は主張する。
これらのモデルは、データ不足、マルチモーダル表現、ドメイン固有の用語、プライバシに関する懸念を含む、ビジネスプロセスにAIを適用するというユニークな課題に取り組む必要がある。
論文 参考訳(メタデータ) (2022-10-26T14:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。