論文の概要: PuzzLing Machines: A Challenge on Learning From Small Data
- arxiv url: http://arxiv.org/abs/2004.13161v1
- Date: Mon, 27 Apr 2020 20:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:17:45.557163
- Title: PuzzLing Machines: A Challenge on Learning From Small Data
- Title(参考訳): PuzzLing Machines: 小規模なデータから学ぶための挑戦
- Authors: G\"ozde G\"ul \c{S}ahin, Yova Kementchedjhieva, Phillip Rust, Iryna
Gurevych
- Abstract要約: 我々は,高校生を対象としたLinguistic OlympiadsのRosetta StoneパズルからなるPuzzLing Machinesという,小さなデータから学ぶための課題を紹介した。
私たちのチャレンジには、81言語から幅広い言語現象をカバーする約100のパズルが含まれています。
単純な統計アルゴリズムと最先端のディープニューラルモデルの両方が、予想通り、この課題に対して不十分に実行可能であることを示す。
- 参考スコア(独自算出の注目度): 64.513459448362
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural models have repeatedly proved excellent at memorizing surface
patterns from large datasets for various ML and NLP benchmarks. They struggle
to achieve human-like thinking, however, because they lack the skill of
iterative reasoning upon knowledge. To expose this problem in a new light, we
introduce a challenge on learning from small data, PuzzLing Machines, which
consists of Rosetta Stone puzzles from Linguistic Olympiads for high school
students. These puzzles are carefully designed to contain only the minimal
amount of parallel text necessary to deduce the form of unseen expressions.
Solving them does not require external information (e.g., knowledge bases,
visual signals) or linguistic expertise, but meta-linguistic awareness and
deductive skills. Our challenge contains around 100 puzzles covering a wide
range of linguistic phenomena from 81 languages. We show that both simple
statistical algorithms and state-of-the-art deep neural models perform
inadequately on this challenge, as expected. We hope that this benchmark,
available at https://ukplab.github.io/PuzzLing-Machines/, inspires further
efforts towards a new paradigm in NLP---one that is grounded in human-like
reasoning and understanding.
- Abstract(参考訳): ディープニューラルモデルは、様々なmlおよびnlpベンチマークのために、大規模なデータセットからの表面パターンを記憶することに成功した。
しかし、知識に反復的推論のスキルが欠けているため、人間的な思考を達成するのに苦労している。
この問題を新しい光で明らかにするために,高校生向けのLinguistic OlympiadsのRosetta StoneパズルからなるPuzzLing Machinesという小さなデータから学習する課題を紹介した。
これらのパズルは、見当たらない表現の形を推測するために必要な最小限の並列テキストだけを含むように慎重に設計されている。
それらを解決するには、外部情報(知識ベース、視覚信号など)や言語専門知識は必要とせず、メタ言語学的な認識と推論スキルを必要とする。
我々の挑戦には、81の言語から幅広い言語現象をカバーする約100のパズルが含まれている。
単純な統計アルゴリズムと最先端のディープニューラルモデルの両方が、予想通り、この課題に対して不十分に機能することを示す。
このベンチマークがhttps://ukplab.github.io/PuzzLing-Machines/で利用可能になることを願っている。
関連論文リスト
- On Memorization of Large Language Models in Logical Reasoning [70.94164038947078]
大きな言語モデル(LLM)は、挑戦的な推論ベンチマークで優れたパフォーマンスを達成するが、基本的な推論ミスを発生させることもできる。
1つの仮説は、より高度でほぼ飽和した性能は、類似した問題の記憶が原因ではないかというものである。
微調整は暗記を重くするが,常に一般化性能を向上することを示す。
論文 参考訳(メタデータ) (2024-10-30T15:31:54Z) - modeLing: A Novel Dataset for Testing Linguistic Reasoning in Language Models [23.105555180223487]
modeLingはLinguistics Olympiadスタイルのパズルの新しいベンチマークで、AIシステムで数発の推論をテストする。
我々は,大規模なオープンソース言語モデルとGPTをベンチマークで評価した。
論文 参考訳(メタデータ) (2024-06-24T18:00:59Z) - Are Language Models Puzzle Prodigies? Algorithmic Puzzles Unveil Serious
Challenges in Multimodal Reasoning [24.386388107656334]
本稿では,視覚的質問応答の文脈内での多モーダルパズル解決の新たな課題を紹介する。
本稿では,アルゴリズムパズルの解法におけるマルチモーダル言語モデルの能力に挑戦し,評価するための新しいデータセットAlgoVQAを提案する。
論文 参考訳(メタデータ) (2024-03-06T17:15:04Z) - Are Deep Neural Networks SMARTer than Second Graders? [85.60342335636341]
6~8歳児を対象としたビジュオ言語パズルの解法において,ニューラルネットワークの抽象化,推論,一般化能力の評価を行った。
我々のデータセットは101のユニークなパズルで構成されており、各パズルは絵の質問で構成されており、それらの解には算術、代数学、空間推論を含むいくつかの基本的なスキルが混在している必要がある。
実験により、強力なディープモデルは教師付き設定でパズルに合理的な性能を与えるが、一般化のために解析するとランダムな精度よりは良くないことが明らかになった。
論文 参考訳(メタデータ) (2022-12-20T04:33:32Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - Pushing the Limits of Rule Reasoning in Transformers through Natural
Language Satisfiability [30.01308882849197]
本稿では,アルゴリズム推論データセットを作成するための新しい手法を提案する。
鍵となる考え方は、ハードプロポーズSAT問題の経験的なサンプリングや、言語に関する複雑性理論的な研究から洞察を得ることである。
十分なトレーニングデータを得た現在のトランスフォーマーは、結果のNLSat問題を解決するのに驚くほど堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-12-16T17:47:20Z) - Understanding and Enhancing the Use of Context for Machine Translation [2.367786892039871]
この論文は、ニューラルモデルにおけるコンテキストの特定の可能性を理解し、それらから恩恵を受ける拡張モデルを設計することに焦点を当てている。
ソース言語からターゲット言語に翻訳するには、神経モデルは与えられたコンテキストにおける構成語の意味を理解する必要があります。
NLP分野を進めるためには、コンテキストの役割と学習モデルに対するデータの影響をより深く検討することが不可欠です。
論文 参考訳(メタデータ) (2021-02-20T20:19:27Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。