論文の概要: Random Rule Forest (RRF): Interpretable Ensembles of LLM-Generated Questions for Predicting Startup Success
- arxiv url: http://arxiv.org/abs/2505.24622v1
- Date: Fri, 30 May 2025 14:13:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.990432
- Title: Random Rule Forest (RRF): Interpretable Ensembles of LLM-Generated Questions for Predicting Startup Success
- Title(参考訳): ランダムルールフォレスト(RRF):スタートアップ成功予測のためのLCM生成質問の解釈アンサンブル
- Authors: Ben Griffin, Joseph Ternasky, Fuat Alican, Yigit Ihlamur,
- Abstract要約: 大規模言語モデル(LLM)によって生成されるYES/NO質問を組み合わせた軽量アンサンブルフレームワークを提案する。
スタートアップの10%を成功と分類するテストセットでは、ランダム選択よりも5倍の精度で50%の精度を達成しています。
これらの結果は、推論と人間の洞察を組み合わせることの価値を強調し、単純で解釈可能なアンサンブルが、ベンチャーキャピタル(VC)のような領域における高い意思決定を支援することを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting startup success requires models that are both accurate and interpretable. We present a lightweight ensemble framework that combines YES/NO questions generated by large language models (LLMs), forming a transparent decision-making system. Each question acts as a weak heuristic, and by filtering, ranking, and aggregating them through a threshold-based voting mechanism, we construct a strong ensemble predictor. On a test set where 10% of startups are classified as successful, our approach achieves a precision rate of 50%, representing a 5x improvement over random selection, while remaining fully transparent. When we incorporate expert-guided heuristics into the generation process, performance improves further to 54% precision. These results highlight the value of combining LLM reasoning with human insight and demonstrate that simple, interpretable ensembles can support high-stakes decisions in domains such as venture capital (VC).
- Abstract(参考訳): スタートアップの成功を予測するには、正確かつ解釈可能なモデルが必要である。
本稿では,大規模言語モデル(LLM)が生成するYES/NO質問を組み合わせて,透過的な意思決定システムを構築する軽量アンサンブルフレームワークを提案する。
各質問は弱いヒューリスティックとして機能し、しきい値に基づく投票機構を通じてそれらをフィルタリング、ランク付け、集約することにより、強いアンサンブル予測器を構築する。
スタートアップの10%が成功と分類されるテストセットでは、私たちのアプローチは50%の精度で達成され、ランダム選択よりも5倍改善され、完全な透明性が保たれています。
専門家が指導するヒューリスティックスを生成プロセスに組み込むと、パフォーマンスはさらに54%の精度で向上します。
これらの結果は、LCM推論と人間の洞察を組み合わせることの価値を強調し、単純で解釈可能なアンサンブルが、ベンチャーキャピタル(VC)のような領域における高い意思決定を支援することを実証する。
関連論文リスト
- Policy Induction: Predicting Startup Success via Explainable Memory-Augmented In-Context Learning [0.0]
本稿では,メモリ拡張型大規模言語モデルを用いた透過的かつデータ効率の高い投資決定フレームワークを提案する。
数ショット学習とコンテキスト内学習ループを組み合わせた,軽量なトレーニングプロセスを導入する。
我々のシステムは既存のベンチマークよりも、スタートアップの成功をはるかに正確に予測する。
論文 参考訳(メタデータ) (2025-05-27T16:57:07Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - Reasoning-Based AI for Startup Evaluation (R.A.I.S.E.): A Memory-Augmented, Multi-Step Decision Framework [0.0]
本稿では,意思決定ツリーの解釈可能性と大規模言語モデル(LLM)の高度な推論能力のギャップを埋めて,スタートアップの成功を予測する新しいフレームワークを提案する。
我々の手法はチェーン・オブ・ソート・プロンプトを利用して詳細な推論ログを生成し、その後、構造化された人間の理解可能な論理ルールに蒸留する。
我々の手法は、従来の意思決定プロセスを強化するだけでなく、専門家の介入や継続的な政策改善を促進する。
論文 参考訳(メタデータ) (2025-04-16T13:53:42Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [65.31658824274894]
Best-of-N選択は、大規模言語モデルの推論性能を改善するための重要なテクニックである。
本稿では,外部報酬モデルを必要とすることなく,応答品質を推定する新規かつ効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - CER: Confidence Enhanced Reasoning in LLMs [2.4392539322920763]
本稿では,大規模言語モデル応答の精度向上を目的とした不確実性認識フレームワークを提案する。
数理推論における数値結果や開領域生成における固有名詞などの中間回答の信頼度を定量化する。
その結果,新しい信頼度集計法の有効性を一貫して検証した。
論文 参考訳(メタデータ) (2025-02-20T15:16:42Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - SSFF: Investigating LLM Predictive Capabilities for Startup Success through a Multi-Agent Framework with Enhanced Explainability and Performance [0.16385815610837165]
スタートアップ成功予測フレームワーク(Startup Success Forecasting Framework)は、ベンチャーキャピタルアナリストの推論をエミュレートする自律システムである。
創業者セグメンテーションを活用することで、L5創業者が率いるスタートアップは、L1創業者が率いるスタートアップの3.79倍の確率で成功する。
我々のフレームワークは予測精度を大幅に向上させ、GPT 4o miniよりも108.3%改善し、GPT 4oより30.8%改善した。
論文 参考訳(メタデータ) (2024-05-29T19:07:42Z) - Think Twice Before Trusting: Self-Detection for Large Language Models through Comprehensive Answer Reflection [90.71323430635593]
本稿では, LLM生成解を超える包括的解答空間を考察した, 新たな自己検出パラダイムを提案する。
このパラダイムに基づいて、2段階のフレームワークを導入し、まずまずLLMに各候補の回答を反映し、正当化するように指示する。
このフレームワークは、優れた自己検出のための既存のアプローチとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z) - Self-Evaluation Improves Selective Generation in Large Language Models [54.003992911447696]
オープンエンド生成タスクをトークンレベルの予測タスクに再構成する。
我々はLSMに答えを自己評価するように指示する。
自己評価に基づくスコアリング手法をベンチマークする。
論文 参考訳(メタデータ) (2023-12-14T19:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。