論文の概要: Predicting Startup Success Using Large Language Models: A Novel In-Context Learning Approach
- arxiv url: http://arxiv.org/abs/2601.16568v2
- Date: Tue, 27 Jan 2026 17:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:50.94895
- Title: Predicting Startup Success Using Large Language Models: A Novel In-Context Learning Approach
- Title(参考訳): 大規模言語モデルによるスタートアップの成功予測:新しいインテクスト学習アプローチ
- Authors: Abdurahman Maarouf, Alket Bakiaj, Stefan Feuerriegel,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いたスタートアップ成功予測のためのコンテキスト内学習フレームワークを提案する。
具体的には,k-nearest-neighbor-based in-context learning framework(kNN-ICL)を提案する。
Crunchbaseの実際のプロファイルを用いて、kNN-ICLアプローチは、教師付き機械学習ベースラインやバニラインコンテキスト学習よりも高い予測精度を実現する。
- 参考スコア(独自算出の注目度): 32.510120225056944
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Venture capital (VC) investments in early-stage startups that end up being successful can yield high returns. However, predicting early-stage startup success remains challenging due to data scarcity (e.g., many VC firms have information about only a few dozen of early-stage startups and whether they were successful). This limits the effectiveness of traditional machine learning methods that rely on large labeled datasets for model training. To address this challenge, we propose an in-context learning framework for startup success prediction using large language models (LLMs) that requires no model training and leverages only a small set of labeled startups as demonstration examples. Specifically, we propose a novel k-nearest-neighbor-based in-context learning framework, called kNN-ICL, which selects the most relevant past startups as examples based on similarity. Using real-world profiles from Crunchbase, we find that the kNN-ICL approach achieves higher prediction accuracy than supervised machine learning baselines and vanilla in-context learning. Further, we study how performance varies with the number of in-context examples and find that a high balanced accuracy can be achieved with as few as 50 examples. Together, we demonstrate that in-context learning can serve as a decision-making tool for VC firms operating in data-scarce environments.
- Abstract(参考訳): アーリーステージのスタートアップへのベンチャー資金(VC)投資は、最終的に成功すると高いリターンをもたらす。
しかし、データ不足のため、アーリーステージスタートアップの成功を予測することは依然として困難である(例えば、多くのVC企業は、アーリーステージスタートアップのわずか数社と、彼らが成功したかどうかに関する情報を持っている)。
これにより、モデルトレーニングのための大きなラベル付きデータセットに依存する従来の機械学習手法の有効性が制限される。
この課題に対処するために,大規模言語モデル(LLM)を用いたスタートアップ成功予測のためのコンテキスト内学習フレームワークを提案する。
具体的には,k-nearest-neighbor-based in-context learning framework(kNN-ICL)を提案する。
Crunchbaseの実際のプロファイルを用いて、kNN-ICLアプローチは、教師付き機械学習ベースラインやバニラインコンテキスト学習よりも高い予測精度を実現する。
さらに,テキスト内サンプル数によってパフォーマンスがどう変化するかを検討した結果,50個のサンプルで高いバランスの取れた精度が得られることがわかった。
同時に、インコンテキスト学習が、データスカース環境で運用されているVC企業の意思決定ツールとなることを実証する。
関連論文リスト
- From Limited Data to Rare-event Prediction: LLM-powered Feature Engineering and Multi-model Learning in Venture Capital [0.0]
本稿では,大規模言語モデル (LLM) とマルチモデル機械学習 (ML) アーキテクチャを統合することで,希少かつ高インパクトな結果を予測する枠組みを提案する。
構造化されていないデータから複雑な信号を抽出・合成するために,LLMを利用した特徴工学を用いる。
我々はこのフレームワークをVC(Venture Capital)の分野に適用し、投資家は限られた、騒々しいアーリーステージデータでスタートアップを評価する必要がある。
論文 参考訳(メタデータ) (2025-09-09T20:46:54Z) - Cold-Start Active Preference Learning in Socio-Economic Domains [0.0]
積極的嗜好学習におけるコールドスタート問題はほとんど未解明のままである。
提案手法は,PCA(Principal Component Analysis)を用いた自己教師型フェーズで学習を開始し,初期擬似ラベルを生成する。
経済的信頼度、キャリア成功率、社会経済的地位など、様々な社会経済的データセットで実施された実験は、PCA主導のアプローチが標準的なアクティブラーニング戦略より優れていることを一貫して示している。
論文 参考訳(メタデータ) (2025-08-07T07:18:50Z) - Learning What Matters: Prioritized Concept Learning via Relative Error-driven Sample Selection [38.35524024887503]
Prioritized cOncept learninG by Relative Error-driven Sample Selection (PROGRESS)を提案する。
PROGRESSはデータと計算効率のよいフレームワークで、視覚言語モデルで次に何を学習するかを動的に選択できる。
PROGRESSは、データや監督をはるかに少なくして、最先端のベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-01T17:05:35Z) - Policy Induction: Predicting Startup Success via Explainable Memory-Augmented In-Context Learning [0.0]
本稿では,メモリ拡張型大規模言語モデルを用いた透過的かつデータ効率の高い投資決定フレームワークを提案する。
数ショット学習とコンテキスト内学習ループを組み合わせた,軽量なトレーニングプロセスを導入する。
我々のシステムは既存のベンチマークよりも、スタートアップの成功をはるかに正確に予測する。
論文 参考訳(メタデータ) (2025-05-27T16:57:07Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Startup success prediction and VC portfolio simulation using CrunchBase
data [1.7897779505837144]
本稿では、主要な成功のマイルストーンを予測することを目的とした、シリーズBおよびシリーズCの投資ステージにおけるスタートアップに焦点を当てる。
スタートアップの成功を予測するための新しいディープラーニングモデルを導入し、資金調達指標、創業者の特徴、業界カテゴリなど、さまざまな要素を統合する。
私たちの研究は、スタートアップの成功を予測する上で、ディープラーニングモデルと代替の非構造化データによるかなりの可能性を実証しています。
論文 参考訳(メタデータ) (2023-09-27T10:22:37Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [65.57123249246358]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - PRODIGY: Enabling In-context Learning Over Graphs [112.19056551153454]
コンテキスト内学習(In-context learning)とは、事前訓練されたモデルが、新しい多様な下流タスクに適応する能力である。
ProDIGYは,グラフ上でのコンテキスト内学習を可能にする最初の事前学習フレームワークである。
論文 参考訳(メタデータ) (2023-05-21T23:16:30Z) - Using Deep Learning to Find the Next Unicorn: A Practical Synthesis [42.70427723009158]
Venture Capital(VC)は、ユニコーンスタートアップを早期に特定し、投資し、高いリターンを得ることを期待している。
過去20年間、業界は従来の統計的アプローチから機械学習ベースのものへと移行してきた。
本研究は,DLのライフサイクル全体をカバーする,DLベースのアプローチに関する文献レビューと合成を行う。
論文 参考訳(メタデータ) (2022-10-18T13:11:16Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Token-wise Curriculum Learning for Neural Machine Translation [94.93133801641707]
ニューラルネットワーク翻訳(NMT)への既存のカリキュラム学習アプローチでは、初期のトレーニング段階でトレーニングデータから十分なサンプルをサンプリングする必要がある。
簡便なサンプルを十分に生成する,新しいトークン型カリキュラム学習手法を提案する。
当社のアプローチは,5つの言語ペア,特に低リソース言語において,ベースラインを一貫して上回ることができる。
論文 参考訳(メタデータ) (2021-03-20T03:57:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。