論文の概要: What Are Research Hypotheses?
- arxiv url: http://arxiv.org/abs/2509.00185v1
- Date: Fri, 29 Aug 2025 18:37:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.117009
- Title: What Are Research Hypotheses?
- Title(参考訳): 研究の仮説とは何か?
- Authors: Jian Wu, Sarah Rajtmajer,
- Abstract要約: 我々は、様々な自然言語理解タスクにおけるエンフェーセシスという用語の解釈が、自然科学、社会科学、フォーマル科学の伝統的な定義から移ってきたと論じる。
我々は、特に機械解釈可能な学術記録に向けて進む際に、よく構造化され、明確に定義された仮説の重要性を強調した。
- 参考スコア(独自算出の注目度): 7.409934952693917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the past decades, alongside advancements in natural language processing, significant attention has been paid to training models to automatically extract, understand, test, and generate hypotheses in open and scientific domains. However, interpretations of the term \emph{hypothesis} for various natural language understanding (NLU) tasks have migrated from traditional definitions in the natural, social, and formal sciences. Even within NLU, we observe differences defining hypotheses across literature. In this paper, we overview and delineate various definitions of hypothesis. Especially, we discern the nuances of definitions across recently published NLU tasks. We highlight the importance of well-structured and well-defined hypotheses, particularly as we move toward a machine-interpretable scholarly record.
- Abstract(参考訳): 過去数十年間、自然言語処理の進歩とともに、オープンで科学的な領域における仮説を自動的に抽出し、理解し、テストし、生成するための訓練モデルに重要な注目を集めてきた。
しかしながら、様々な自然言語理解(NLU)タスクに対する「emph{hypothesis}」という用語の解釈は、自然科学、社会科学、フォーマル科学の伝統的な定義から移行してきた。
NLU内でさえ、文献間での仮説定義の相違を観察する。
本稿では,仮説の様々な定義を概説し,概説する。
特に、最近発表されたNLUタスク間で定義のニュアンスを識別する。
我々は、特に機械解釈可能な学術記録に向けて進む際に、よく構造化され、明確に定義された仮説の重要性を強調した。
関連論文リスト
- MOOSE-Chem2: Exploring LLM Limits in Fine-Grained Scientific Hypothesis Discovery via Hierarchical Search [102.11776494401705]
大規模言語モデル (LLM) は科学的仮説生成の自動化において有望であることを示している。
既存のアプローチは主に、批判的な方法論や実験的な詳細を欠いた粗粒の仮説を導出する。
我々は、科学的仮説発見の新しいタスクを導入し、正式に定義する。
論文 参考訳(メタデータ) (2025-05-25T16:13:46Z) - On Reference (In-)Determinacy in Natural Language Inference [62.904689974282334]
我々は、自然言語推論(NLI)タスクにおける基準決定性(RD)仮定を再考する。
我々は、現在のNLIモデルは、入力前提と仮説が異なるコンテキストを参照できる事実検証のような下流アプリケーションでは失敗するのを観察する。
NLI例における参照曖昧性を特定するための診断ベンチマークであるRefNLIを紹介する。
論文 参考訳(メタデータ) (2025-02-09T06:58:13Z) - Context-Aware Reasoning On Parametric Knowledge for Inferring Causal Variables [49.31233968546582]
本稿では,部分因果グラフの完成を目的とした新しいベンチマークを提案する。
原因と効果の間のバックドア変数を仮説化するLLMの強い能力を示す。
固定された関連性の単純な記憶とは異なり、我々のタスクはグラフ全体のコンテキストに応じてLCMを推論する必要がある。
論文 参考訳(メタデータ) (2024-09-04T10:37:44Z) - Generating novel experimental hypotheses from language models: A case study on cross-dative generalization [15.705978435313996]
我々は、シミュレーション学習者としてLMを用いて、人間と実験するための新しい実験仮説を導出する。
子どもの横断的一般化(CDG)の既知のパターンを再現するLMが見つかる。
本論では,CDGが露出コンテキストの特徴として,特に調和性のあるものとして,内部的に促進される,という新たな仮説を提案する。
論文 参考訳(メタデータ) (2024-08-09T14:17:36Z) - What Do Language Models Learn in Context? The Structured Task Hypothesis [89.65045443150889]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)と呼ばれるデモで提示されたインコンテキストの例から新しいタスクを学習する
一般的な仮説の一つは、タスク選択によるICLの説明である。
もう一つの一般的な仮説は、ICLはメタ学習の一形態である、すなわち、モデルが事前学習時に学習アルゴリズムを学習し、それを実演に適用する、というものである。
論文 参考訳(メタデータ) (2024-06-06T16:15:34Z) - Can Large Language Models Discern Evidence for Scientific Hypotheses? Case Studies in the Social Sciences [3.9985385067438344]
強い仮説は、既存の証拠に基づく最良の推理であり、関連する文献の包括的な見解によって知らされる。
毎年発行される科学論文の数が指数関数的に増加すると、ある仮説に関連する証拠の手作業による集約と合成は困難である。
我々は,社会科学における研究のコミュニティ主導のアノテーションを用いた科学的仮説の課題のための新しいデータセットを共有する。
論文 参考訳(メタデータ) (2023-09-07T04:15:17Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - Large Language Models Are Partially Primed in Pronoun Interpretation [6.024776891570197]
大規模言語モデル (LLM) は, 刺激や実際の心理言語実験の手順を用いて, 人間のような参照バイアスを呈するかどうかを検討する。
最近の精神言語学的研究は、人間が参照パターンに最近露出することで参照バイアスに適応することを示唆している。
InstructGPTは,局所談話における参照パターンの頻度に応じて,その韻律的解釈に適応することがわかった。
論文 参考訳(メタデータ) (2023-05-26T13:30:48Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - The Causal Structure of Semantic Ambiguities [0.0]
本研究は,(1)異なる解釈の連立可否度,(2)プロセスにおいて特定の単語がより重要な役割を果たす因果構造,の2つの特徴を同定する。
我々はこの理論を、心理学文献から抽出された曖昧なフレーズのデータセットと、私たちによって収集された人間の妥当性に応用した。
論文 参考訳(メタデータ) (2022-06-14T12:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。