論文の概要: Policy Induction: Predicting Startup Success via Explainable Memory-Augmented In-Context Learning
- arxiv url: http://arxiv.org/abs/2505.21427v2
- Date: Wed, 04 Jun 2025 09:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 16:24:49.037397
- Title: Policy Induction: Predicting Startup Success via Explainable Memory-Augmented In-Context Learning
- Title(参考訳): ポリシー誘導: 説明可能なメモリ拡張型インコンテキスト学習によるスタートアップの成功予測
- Authors: Xianling Mu, Joseph Ternasky, Fuat Alican, Yigit Ihlamur,
- Abstract要約: 本稿では,メモリ拡張型大規模言語モデルを用いた透過的かつデータ効率の高い投資決定フレームワークを提案する。
数ショット学習とコンテキスト内学習ループを組み合わせた,軽量なトレーニングプロセスを導入する。
我々のシステムは既存のベンチマークよりも、スタートアップの成功をはるかに正確に予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early-stage startup investment is a high-risk endeavor characterized by scarce data and uncertain outcomes. Traditional machine learning approaches often require large, labeled datasets and extensive fine-tuning, yet remain opaque and difficult for domain experts to interpret or improve. In this paper, we propose a transparent and data-efficient investment decision framework powered by memory-augmented large language models (LLMs) using in-context learning (ICL). Central to our method is a natural language policy embedded directly into the LLM prompt, enabling the model to apply explicit reasoning patterns and allowing human experts to easily interpret, audit, and iteratively refine the logic. We introduce a lightweight training process that combines few-shot learning with an in-context learning loop, enabling the LLM to update its decision policy iteratively based on structured feedback. With only minimal supervision and no gradient-based optimization, our system predicts startup success far more accurately than existing benchmarks. It is over 20x more precise than random chance, which succeeds 1.9% of the time. It is also 7.1x more precise than the typical 5.6% success rate of top-tier venture capital (VC) firms.
- Abstract(参考訳): アーリーステージのスタートアップ投資は、データ不足と不確実な結果によって特徴づけられるリスクの高い取り組みである。
従来の機械学習アプローチは、大きなラベル付きデータセットと広範囲の微調整を必要とすることが多いが、ドメインの専門家が解釈や改善を困難にしている。
本稿では,インコンテキスト学習(ICL)を用いたメモリ拡張大言語モデル(LLM)を利用した,透過的でデータ効率の高い投資決定フレームワークを提案する。
我々の手法の中心は、LLMプロンプトに直接埋め込まれた自然言語ポリシーであり、モデルが明示的な推論パターンを適用し、人間の専門家が容易に解釈し、監査し、論理を反復的に洗練することを可能にする。
本稿では,LLMが構造化されたフィードバックに基づいて意思決定方針を反復的に更新することのできる,少数のショット学習とコンテキスト内学習ループを組み合わせた軽量なトレーニングプロセスを提案する。
最小限の監督と勾配に基づく最適化がなければ、既存のベンチマークよりもはるかに正確なスタートアップ成功を予測できる。
確率の20倍以上の精度で、1.9%の確率で成功している。
また、トップレベルベンチャーキャピタル(VC)の典型的な5.6%の成功率より7.1倍正確である。
関連論文リスト
- From Course to Skill: Evaluating LLM Performance in Curricular Analytics [2.5104969073405976]
大規模言語モデル(LLM)は、大規模で非構造化のカリキュラムデータを扱うことを約束している。
我々は,LLMや従来のNLP法に基づく4つのテキストアライメント戦略を体系的に評価した。
本研究は, 簡潔かつ抽象的なカリキュラム文書の分析において, LLMsが持つ可能性を明らかにするとともに, その性能がモデル選択やプロンプト戦略に大きく依存することを明らかにする。
論文 参考訳(メタデータ) (2025-05-05T02:46:23Z) - Retrieval Augmented Learning: A Retrial-based Large Language Model Self-Supervised Learning and Autonomous Knowledge Generation [13.284415692423039]
本稿では,Large Language Models(LLMs)のための報酬なし自己教師型学習フレームワークであるRetrial-Augmented Learning(RAL)を紹介する。
中間データを整理するモジュールとして検索補助生成(RAG)を開発することにより,仮説を提案し,仮説を検証し,知識を生成する3段階の自律的知識生成を実現した。
実験により,提案手法は,評価知識の生成と活用によって幻覚を効果的に低減し,極めて低コストで意思決定性能を向上することを示した。
論文 参考訳(メタデータ) (2025-05-02T07:25:01Z) - Reasoning-Based AI for Startup Evaluation (R.A.I.S.E.): A Memory-Augmented, Multi-Step Decision Framework [0.0]
本稿では,意思決定ツリーの解釈可能性と大規模言語モデル(LLM)の高度な推論能力のギャップを埋めて,スタートアップの成功を予測する新しいフレームワークを提案する。
我々の手法はチェーン・オブ・ソート・プロンプトを利用して詳細な推論ログを生成し、その後、構造化された人間の理解可能な論理ルールに蒸留する。
我々の手法は、従来の意思決定プロセスを強化するだけでなく、専門家の介入や継続的な政策改善を促進する。
論文 参考訳(メタデータ) (2025-04-16T13:53:42Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - Automating Venture Capital: Founder assessment using LLM-powered segmentation, feature engineering and automated labeling techniques [0.0]
本研究では、ベンチャーキャピタル(VC)意思決定における大規模言語モデル(LLM)の適用について検討する。
我々はLLMプロンプト技術を利用して、限られたデータから特徴を生成し、統計と機械学習を通して洞察を抽出する。
この結果から,特定の創始者特性と成功との関係が明らかとなり,予測におけるこれらの特性の有効性が示された。
論文 参考訳(メタデータ) (2024-07-05T22:54:13Z) - Supportiveness-based Knowledge Rewriting for Retrieval-augmented Language Modeling [65.72918416258219]
支援性に基づく知識書き換え(SKR)は、LLM生成に本質的に最適化された堅牢でプラガブルな知識書き換えである。
知識支援に基づき、まず、リライターモデルのためのトレーニングデータキュレーション戦略を設計する。
次に、生成したリライトを最適な支持度に調整するために、直接選好最適化(DPO)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-06-12T11:52:35Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。