論文の概要: Random Rule Forest (RRF): Interpretable Ensembles of LLM-Generated Questions for Predicting Startup Success
- arxiv url: http://arxiv.org/abs/2505.24622v2
- Date: Mon, 15 Sep 2025 18:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.597659
- Title: Random Rule Forest (RRF): Interpretable Ensembles of LLM-Generated Questions for Predicting Startup Success
- Title(参考訳): ランダムルールフォレスト(RRF):スタートアップ成功予測のためのLCM生成質問の解釈アンサンブル
- Authors: Ben Griffin, Diego Vidaurre, Ugur Koyluoglu, Joseph Ternasky, Fuat Alican, Yigit Ihlamur,
- Abstract要約: 本稿では,Landom Rule Forest (RRF) という,Large Language Model (LLM) を用いた簡単なYES/NO質問を自然言語で生成する軽量アンサンブル手法を紹介する。
RRFは保持データに対するランダムなベースラインよりも6.9倍の改善を実現している。
LLMの創造性とアンサンブル学習の厳密さを組み合わせることで、RFFは高い領域における意思決定に適した解釈可能な高精度な予測を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting rare outcomes such as startup success is central to venture capital, demanding models that are both accurate and interpretable. We introduce Random Rule Forest (RRF), a lightweight ensemble method that uses a large language model (LLM) to generate simple YES/NO questions in natural language. Each question functions as a weak learner, and their responses are combined using a threshold-based voting rule to form a strong, interpretable predictor. Applied to a dataset of 9,892 founders, RRF achieves a 6.9x improvement over a random baseline on held-out data; adding expert-crafted questions lifts this to 8x and highlights the value of human-LLM collaboration. Compared with zero- and few-shot baselines across three LLM architectures, RRF attains an F0.5 of 0.121, versus 0.086 for the best baseline (+0.035 absolute, +41% relative). By combining the creativity of LLMs with the rigor of ensemble learning, RRF delivers interpretable, high-precision predictions suitable for decision-making in high-stakes domains.
- Abstract(参考訳): スタートアップの成功のような稀な成果を予測することは、正確かつ解釈可能なモデルを要求するベンチャーキャピタルの中心である。
本稿では,Landom Rule Forest (RRF) という,Large Language Model (LLM) を用いた簡単なYES/NO質問を自然言語で生成する軽量アンサンブル手法を紹介する。
各質問は弱い学習者として機能し、その応答はしきい値に基づく投票規則を用いて結合され、強い解釈可能な予測器を形成する。
9,892人の創業者のデータセットに適用されたRAFは、保持データに対するランダムなベースラインよりも6.9倍の改善を実現している。
3つのLCMアーキテクチャのゼロと少数ショットのベースラインと比較すると、RFFはF0.5の0.121であり、最高のベースラインでは0.086である(+0.035絶対、+41%相対)。
LLMの創造性とアンサンブル学習の厳密さを組み合わせることで、RFFは高い領域における意思決定に適した解釈可能な高精度な予測を提供する。
関連論文リスト
- Policy Induction: Predicting Startup Success via Explainable Memory-Augmented In-Context Learning [0.0]
本稿では,メモリ拡張型大規模言語モデルを用いた透過的かつデータ効率の高い投資決定フレームワークを提案する。
数ショット学習とコンテキスト内学習ループを組み合わせた,軽量なトレーニングプロセスを導入する。
我々のシステムは既存のベンチマークよりも、スタートアップの成功をはるかに正確に予測する。
論文 参考訳(メタデータ) (2025-05-27T16:57:07Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Reasoning-Based AI for Startup Evaluation (R.A.I.S.E.): A Memory-Augmented, Multi-Step Decision Framework [0.0]
本稿では,意思決定ツリーの解釈可能性と大規模言語モデル(LLM)の高度な推論能力のギャップを埋めて,スタートアップの成功を予測する新しいフレームワークを提案する。
我々の手法はチェーン・オブ・ソート・プロンプトを利用して詳細な推論ログを生成し、その後、構造化された人間の理解可能な論理ルールに蒸留する。
我々の手法は、従来の意思決定プロセスを強化するだけでなく、専門家の介入や継続的な政策改善を促進する。
論文 参考訳(メタデータ) (2025-04-16T13:53:42Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [65.31658824274894]
Best-of-N選択は、大規模言語モデルの推論性能を改善するための重要なテクニックである。
本稿では,外部報酬モデルを必要とすることなく,応答品質を推定する新規かつ効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - CER: Confidence Enhanced Reasoning in LLMs [2.4392539322920763]
本稿では,大規模言語モデル応答の精度向上を目的とした不確実性認識フレームワークを提案する。
数理推論における数値結果や開領域生成における固有名詞などの中間回答の信頼度を定量化する。
その結果,新しい信頼度集計法の有効性を一貫して検証した。
論文 参考訳(メタデータ) (2025-02-20T15:16:42Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - SSFF: Investigating LLM Predictive Capabilities for Startup Success through a Multi-Agent Framework with Enhanced Explainability and Performance [0.16385815610837165]
スタートアップ成功予測フレームワーク(Startup Success Forecasting Framework)は、ベンチャーキャピタルアナリストの推論をエミュレートする自律システムである。
創業者セグメンテーションを活用することで、L5創業者が率いるスタートアップは、L1創業者が率いるスタートアップの3.79倍の確率で成功する。
我々のフレームワークは予測精度を大幅に向上させ、GPT 4o miniよりも108.3%改善し、GPT 4oより30.8%改善した。
論文 参考訳(メタデータ) (2024-05-29T19:07:42Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - Think Twice Before Trusting: Self-Detection for Large Language Models through Comprehensive Answer Reflection [90.71323430635593]
本稿では, LLM生成解を超える包括的解答空間を考察した, 新たな自己検出パラダイムを提案する。
このパラダイムに基づいて、2段階のフレームワークを導入し、まずまずLLMに各候補の回答を反映し、正当化するように指示する。
このフレームワークは、優れた自己検出のための既存のアプローチとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z) - Self-Evaluation Improves Selective Generation in Large Language Models [54.003992911447696]
オープンエンド生成タスクをトークンレベルの予測タスクに再構成する。
我々はLSMに答えを自己評価するように指示する。
自己評価に基づくスコアリング手法をベンチマークする。
論文 参考訳(メタデータ) (2023-12-14T19:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。