論文の概要: Advancing Event Forecasting through Massive Training of Large Language Models: Challenges, Solutions, and Broader Impacts
- arxiv url: http://arxiv.org/abs/2507.19477v1
- Date: Fri, 25 Jul 2025 17:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:49.063761
- Title: Advancing Event Forecasting through Massive Training of Large Language Models: Challenges, Solutions, and Broader Impacts
- Title(参考訳): 大規模言語モデルの大規模学習によるイベント予測の促進:課題、解決策、そしてより広範な影響
- Authors: Sang-Woo Lee, Sohee Yang, Donghyun Kwak, Noah Y. Siegel,
- Abstract要約: 我々は,スーパーフォラキャスタレベルのイベント予測LPMの大規模トレーニングについて検討する時期が来たと論じる。
トレーニングでは,ノイズ・スパーシティ,知識遮断,単純な報酬構造問題という,LLMに基づくイベント予測トレーニングの難しさを3つ紹介する。
我々は,大規模なトレーニングと評価を可能にするために,市場,パブリック,クローリングデータセットの積極的な利用を提案する。
- 参考スコア(独自算出の注目度): 16.640977719786267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many recent papers have studied the development of superforecaster-level event forecasting LLMs. While methodological problems with early studies cast doubt on the use of LLMs for event forecasting, recent studies with improved evaluation methods have shown that state-of-the-art LLMs are gradually reaching superforecaster-level performance, and reinforcement learning has also been reported to improve future forecasting. Additionally, the unprecedented success of recent reasoning models and Deep Research-style models suggests that technology capable of greatly improving forecasting performance has been developed. Therefore, based on these positive recent trends, we argue that the time is ripe for research on large-scale training of superforecaster-level event forecasting LLMs. We discuss two key research directions: training methods and data acquisition. For training, we first introduce three difficulties of LLM-based event forecasting training: noisiness-sparsity, knowledge cut-off, and simple reward structure problems. Then, we present related ideas to mitigate these problems: hypothetical event Bayesian networks, utilizing poorly-recalled and counterfactual events, and auxiliary reward signals. For data, we propose aggressive use of market, public, and crawling datasets to enable large-scale training and evaluation. Finally, we explain how these technical advances could enable AI to provide predictive intelligence to society in broader areas. This position paper presents promising specific paths and considerations for getting closer to superforecaster-level AI technology, aiming to call for researchers' interest in these directions.
- Abstract(参考訳): 近年, スーパーフォラカスターレベルのイベント予測LDMの開発が研究されている。
早期研究の方法論的問題はイベント予測にLLMを使うことに疑問を呈する一方で、最近の評価手法の改善により、最先端のLLMは徐々にスーパープレキャストレベルに到達し、強化学習も将来予測を改善するために報告されている。
さらに、最近の推論モデルとDeep Researchスタイルのモデルが前例のない成功を収めたことは、予測性能を大幅に改善できる技術が開発されていることを示唆している。
したがって,これらの前向きな傾向から,スーパーフォラカスターレベルのイベント予測LPMの大規模トレーニングの時期は熟していると論じる。
トレーニング方法とデータ取得の2つの主要な研究方向について論じる。
まず,LLMに基づくイベント予測トレーニングの難しさとして,ノイズ・スパーシティ,知識遮断,単純な報酬構造問題を紹介した。
そこで我々は,これらの問題を緩和するために,仮説的事象ベイズ的ネットワーク,粗悪で偽造的事象の活用,補助的な報奨信号を提案する。
データには、大規模なトレーニングと評価を可能にするために、マーケット、パブリック、クローリングデータセットの積極的な利用を提案する。
最後に、これらの技術的進歩によって、AIがより広い分野の社会に予測知性を提供できるかを説明します。
本稿では,これらの方向への研究者の関心を呼び起こすために,超先進的なAI技術に近づくための具体的な道筋と考察を提案する。
関連論文リスト
- Inverse Reinforcement Learning Meets Large Language Model Post-Training: Basics, Advances, and Opportunities [62.05713042908654]
本稿では,逆強化学習(IRL)のレンズによる大規模言語モデル(LLM)のアライメントの進歩について概観する。
我々は、人間のデータからニューラル報酬モデルを構築する必要性を強調し、このパラダイムシフトの形式的および実践的意味について議論する。
論文 参考訳(メタデータ) (2025-07-17T14:22:24Z) - A Survey on Large Language Models for Mathematical Reasoning [13.627895103752783]
本研究では,大規模言語モデル(LLM)における数学的推論能力の発達について検討する。
我々は,教師付き微調整や強化学習などの微調整アプローチから,訓練不要なプロンプトまで,数学的推論を強化する手法をレビューする。
顕著な進歩にもかかわらず、キャパシティ、効率、一般化の点で根本的な課題は残る。
論文 参考訳(メタデータ) (2025-06-10T04:44:28Z) - Outcome-based Reinforcement Learning to Predict the Future [1.4313866885019229]
コンパクトな(14B)推論モデルは、o1のようなフロンティアモデルの予測精度に適合または超えるように訓練可能であることを示す。
ポリマーケットのトレーディングシミュレーションでは、その賭けが10%以上の投資のリターンをもたらすと見積もっている。
論文 参考訳(メタデータ) (2025-05-23T14:56:07Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting [45.0261082985087]
時間的事象予測のための大規模言語モデル(LLM)を総合的に評価する。
テキストによる微調整 LLM は性能を著しく向上させることができる。
しかし、LLMでは人気バイアスやロングテール問題などの問題が続いている。
論文 参考訳(メタデータ) (2024-07-16T11:58:54Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。