論文の概要: Generative AI for Business Strategy: Using Foundation Models to Create
Business Strategy Tools
- arxiv url: http://arxiv.org/abs/2308.14182v1
- Date: Sun, 27 Aug 2023 19:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:26:00.602925
- Title: Generative AI for Business Strategy: Using Foundation Models to Create
Business Strategy Tools
- Title(参考訳): ビジネス戦略のための生成AI:ビジネス戦略ツールの作成に基礎モデルを使用する
- Authors: Son The Nguyen, Theja Tulabandhula
- Abstract要約: ビジネス意思決定における基礎モデルの利用を提案する。
私たちは、署名されたビジネスネットワークの出現という形で、ITアーティファクトを導き出します。
このようなアーティファクトは、市場の状態と自身のポジションについて、ビジネスステークホルダーに通知することができる。
- 参考スコア(独自算出の注目度): 0.7784248206747153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative models (foundation models) such as LLMs (large language models)
are having a large impact on multiple fields. In this work, we propose the use
of such models for business decision making. In particular, we combine
unstructured textual data sources (e.g., news data) with multiple foundation
models (namely, GPT4, transformer-based Named Entity Recognition (NER) models
and Entailment-based Zero-shot Classifiers (ZSC)) to derive IT (information
technology) artifacts in the form of a (sequence of) signed business networks.
We posit that such artifacts can inform business stakeholders about the state
of the market and their own positioning as well as provide quantitative
insights into improving their future outlook.
- Abstract(参考訳): LLM(大規模言語モデル)のような生成モデル(基礎モデル)は、複数の分野に大きな影響を与えている。
本稿では,ビジネス意思決定におけるそのようなモデルの利用を提案する。
特に、構造化されていないテキストデータソース(ニュースデータなど)と、複数の基盤モデル(GPT4、トランスフォーマーベースの名前付きエンティティ認識(NER)モデルとエンターメントベースのゼロショット分類器(ZSC))を組み合わせることで、IT(情報技術)アーティファクトを(一連の)署名されたビジネスネットワークとして導き出す。
このようなアーティファクトは、市場の状態やその位置についてビジネスの利害関係者に知らせ、将来の展望を改善するための定量的な洞察を提供することができると仮定する。
関連論文リスト
- Structured Entity Extraction Using Large Language Models [54.53348483973769]
大規模言語モデル(LLM)は、構造化されていないテキストから構造化された情報を抽出する上で重要な役割を果たす。
本稿では,構造化エンティティ抽出における現行手法の課題と限界について考察する。
本研究では,LLMのパワーを有効・効率的に活用する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Capture the Flag: Uncovering Data Insights with Large Language Models [90.47038584812925]
本研究では,Large Language Models (LLMs) を用いてデータの洞察の発見を自動化する可能性について検討する。
そこで本稿では,データセット内の意味的かつ関連する情報(フラグ)を識別する能力を測定するために,フラグを捕捉する原理に基づく新しい評価手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T14:20:06Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Insights from an OTTR-centric Ontology Engineering Methodology [3.1921092049934647]
OTTRは、OTTモデリングパターンを表現するための言語であり、テンプレートをインスタンス化することで、OTTナレッジベースを構築することができる。
本稿では,物質科学分野の工学的活動から得られた方法論と報告について概説する。
特に,OTTRテンプレートはドメインの専門家とのコミュニケーション手段として特に有用であることがわかった。
論文 参考訳(メタデータ) (2023-09-22T18:31:56Z) - Redeeming Data Science by Decision Modelling [0.0]
本稿では,従来の機械学習モデルと明示的な値モデルを組み合わせる方法を説明する。
具体的な例を示すために、モデルのROC曲線とユーティリティモデルを統合することで、これをどのように行うかを示します。
論文 参考訳(メタデータ) (2023-06-30T19:00:04Z) - Enhancing Knowledge Graph Construction Using Large Language Models [0.0]
本稿では,ChatGPTのような基礎LPMの現在の進歩を,REBELのような特定の事前学習モデルと比較し,結合実体と関係抽出について述べる。
生テキストから知識グラフを自動生成するためのパイプラインを作成し,高度なLCMモデルを用いることで,非構造化テキストからこれらのグラフを作成するプロセスの精度が向上することを示した。
論文 参考訳(メタデータ) (2023-05-08T12:53:06Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - A Case for Business Process-Specific Foundation Models [6.25118865553438]
ビジネスプロセスデータ表現には,新たな基盤モデルの開発を保証できるユニークな特徴がある,と我々は主張する。
これらのモデルは、データ不足、マルチモーダル表現、ドメイン固有の用語、プライバシに関する懸念を含む、ビジネスプロセスにAIを適用するというユニークな課題に取り組む必要がある。
論文 参考訳(メタデータ) (2022-10-26T14:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。