論文の概要: AR-LSAT: Investigating Analytical Reasoning of Text
- arxiv url: http://arxiv.org/abs/2104.06598v2
- Date: Thu, 15 Apr 2021 02:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 09:14:29.532747
- Title: AR-LSAT: Investigating Analytical Reasoning of Text
- Title(参考訳): AR-LSAT:テキストの分析的推論の検討
- Authors: Wanjun Zhong, Siyuan Wang, Duyu Tang, Zenan Xu, Daya Guo, Jiahai Wang,
Jian Yin, Ming Zhou, Nan Duan
- Abstract要約: テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
- 参考スコア(独自算出の注目度): 57.1542673852013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analytical reasoning is an essential and challenging task that requires a
system to analyze a scenario involving a set of particular circumstances and
perform reasoning over it to make conclusions. In this paper, we study the
challenge of analytical reasoning of text and introduce a new dataset
consisting of questions from the Law School Admission Test from 1991 to 2016.
We analyze what knowledge understanding and reasoning abilities are required to
do well on this task. Furthermore, to address this reasoning challenge, we
design two different baselines: (1) a Transformer-based method which leverages
the state-of-the-art pre-trained language models and (2) Analytical Reasoning
Machine (ARM), a logical-level reasoning framework extracting symbolic
knowledge (e.g, participants, facts, logical functions) to deduce legitimate
solutions. In our experiments, we find that the Transformer-based models
struggle to solve this task as their performance is close to random guess and
ARM achieves better performance by leveraging symbolic knowledge and
interpretable reasoning steps. Results show that both methods still lag far
behind human performance, which leave further space for future research.
- Abstract(参考訳): 分析的推論は、システムが特定の状況を含むシナリオを分析し、結論を出すための推論を行う必要がある、不可欠で困難なタスクである。
本稿では,1991年から2016年までの法学校入学試験において,テキストの分析的推論の課題について検討し,新しいデータセットを導入する。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
さらに,この推論課題に対処するために,(1)最先端の事前学習言語モデルを活用したトランスフォーマー方式と(2)記号的知識(例えば,参加者,事実,論理関数)を抽出して正当な解を推論する論理レベル推論フレームワークである解析推論機(arm)の設計を行った。
実験の結果,Transformerをベースとしたモデルでは,その性能がランダムな推測に近づき,ARMは記号的知識と解釈可能な推論ステップを活用して,より良い性能を達成するため,この課題を解決するのに苦労していることがわかった。
結果は、どちらの手法も人間のパフォーマンスよりはるかに遅れており、今後の研究に余地を残していることを示している。
関連論文リスト
- Inference-Time Computations for LLM Reasoning and Planning: A Benchmark and Insights [49.42133807824413]
本稿では,大規模言語モデル(LLM)の複雑な課題解決における推論と計画能力について検討する。
近年の推論時間技術の発展は,LLM推論を追加訓練なしで向上させる可能性を示している。
OpenAIのo1モデルは、マルチステップ推論と検証の新たな使用を通じて、有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-02-18T04:11:29Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - How Transformers Solve Propositional Logic Problems: A Mechanistic Analysis [16.65073455206535]
大きな言語モデル(LLM)は、計画と推論を必要とするタスクで素晴らしいパフォーマンスを示しています。
そこで本研究では,複雑な論理的推論を行うネットワークの能力の基盤となる内部メカニズムについて検討する。
論文 参考訳(メタデータ) (2024-11-06T18:35:32Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - From LSAT: The Progress and Challenges of Complex Reasoning [56.07448735248901]
本稿では,LSAT(Law School Admission Test)の3つの課題について,解析的推論,論理的推論,読解の3つの課題について検討する。
本稿では,これら3つのタスクを統合するハイブリッド推論システムを提案する。
論文 参考訳(メタデータ) (2021-08-02T05:43:03Z) - Social Commonsense Reasoning with Multi-Head Knowledge Attention [24.70946979449572]
社会的コモンセンス推論には、テキストの理解、社会イベントに関する知識、その実践的な意味、およびコモンセンス推論スキルが必要である。
本稿では,半構造化コモンセンス推論規則を符号化し,それをトランスフォーマーベースの推論セルに組み込むことを学習する,新しいマルチヘッド知識アテンションモデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T10:24:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。