論文の概要: First Proof
- arxiv url: http://arxiv.org/abs/2602.05192v1
- Date: Thu, 05 Feb 2026 01:37:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.702925
- Title: First Proof
- Title(参考訳): 第一の証明
- Authors: Mohammed Abouzaid, Andrew J. Blumberg, Martin Hairer, Joe Kileel, Tamara G. Kolda, Paul D. Nelson, Daniel Spielman, Nikhil Srivastava, Rachel Ward, Shmuel Weinberger, Lauren Williams,
- Abstract要約: 筆者らの研究プロセスにおいて自然に生じた10の数学的問題を共有する。
答えは質問の著者に知られていますが、しばらくの間暗号化され続けます。
- 参考スコア(独自算出の注目度): 6.0932332453924225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To assess the ability of current AI systems to correctly answer research-level mathematics questions, we share a set of ten math questions which have arisen naturally in the research process of the authors. The questions had not been shared publicly until now; the answers are known to the authors of the questions but will remain encrypted for a short time.
- Abstract(参考訳): 現在のAIシステムが研究レベルの数学の質問に正しく答える能力を評価するために、著者の研究プロセスで自然に発生した10の数学の質問のセットを共有します。
質問の答えは著者に知られていますが、しばらくの間暗号化され続けます。
関連論文リスト
- Generate Logical Equivalence Questions [7.803320428172909]
自動質問生成(AQG)は、学生ごとに独自の質問を作成することで、コピーを緩和する潜在的なソリューションを提供する。
AQGは離散数学の論理同値問題の生成に重点を置いている。
新しいアプローチでは、形式言語を用いて論理同値問題を定義し、この言語を2つの生成規則に翻訳し、質問生成のための線形時間アルゴリズムを開発する。
論文 参考訳(メタデータ) (2025-10-13T22:55:37Z) - How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Automatic Generation of Socratic Subquestions for Teaching Math Word
Problems [16.97827669744673]
本稿では,大言語モデル (LM) が数学用語の問題解決を導くためのシーケンシャルな質問を生成する能力について検討する。
自動品質評価と人的品質評価の両方において,所望の質問特性に制約されたLMが優れた質問を生成することがわかった。
その結果,課題の難易度は,質問が人間のパフォーマンスを損なうか否かを判断する上で重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2022-11-23T10:40:22Z) - What makes us curious? analysis of a corpus of open-domain questions [0.11470070927586014]
2017年、ブリストルの「We the Curious」科学センターはブリストル人の好奇心を捉えるプロジェクトを開始した。
このプロジェクトは様々なトピックについて10,000以上の質問を集めた。
我々は、さまざまな処理タスクを実行するために使用できる人工知能ツールを開発した。
論文 参考訳(メタデータ) (2021-10-28T19:37:43Z) - Generating Answer Candidates for Quizzes and Answer-Aware Question
Generators [16.44011627249311]
そこで本研究では,テキストの文通しに対して,所定の数の回答候補を生成できるモデルを提案する。
実験の結果,提案する回答候補生成モデルは,いくつかのベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-08-29T19:33:51Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z) - Unsupervised Question Decomposition for Question Answering [102.56966847404287]
本論文では, ワンツーNアン教師付きシーケンスシーケンス(ONUS)のアルゴリズムを提案する。
当初,ドメイン外,マルチホップ開発セットのベースラインが強かったため,HotpotQAでは大きなQA改善が見られた。
論文 参考訳(メタデータ) (2020-02-22T19:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。