論文の概要: OLGA : An Ontology and LSTM-based approach for generating Arithmetic
Word Problems (AWPs) of transfer type
- arxiv url: http://arxiv.org/abs/2211.12164v1
- Date: Tue, 22 Nov 2022 10:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 16:51:39.972935
- Title: OLGA : An Ontology and LSTM-based approach for generating Arithmetic
Word Problems (AWPs) of transfer type
- Title(参考訳): OLGA : 移動型の算術的単語問題(AWP)生成のためのオントロジーとLSTMに基づくアプローチ
- Authors: Suresh Kumar and P Sreenivasa Kumar
- Abstract要約: 算術語問題(AWP)の機械生成は,量や数学的関係を表現する上で困難である。
本稿では,TC型の一貫した単語問題を生成するシステムOLGAを提案する。
我々は以前提案したTC-Ontologyの拡張を用いて問題の整合性を決定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine generation of Arithmetic Word Problems (AWPs) is challenging as they
express quantities and mathematical relationships and need to be consistent.
ML-solvers require a large annotated training set of consistent problems with
language variations. Exploiting domain-knowledge is needed for consistency
checking whereas LSTM-based approaches are good for producing text with
language variations. Combining these we propose a system, OLGA, to generate
consistent word problems of TC (Transfer-Case) type, involving object transfers
among agents. Though we provide a dataset of consistent 2-agent TC-problems for
training, only about 36% of the outputs of an LSTM-based generator are found
consistent. We use an extension of TC-Ontology, proposed by us previously, to
determine the consistency of problems. Among the remaining 64%, about 40% have
minor errors which we repair using the same ontology. To check consistency and
for the repair process, we construct an instance-specific representation (ABox)
of an auto-generated problem. We use a sentence classifier and BERT models for
this task. The training set for these LMs is problem-texts where sentence-parts
are annotated with ontology class-names. As three-agent problems are longer,
the percentage of consistent problems generated by an LSTM-based approach drops
further. Hence, we propose an ontology-based method that extends consistent
2-agent problems into consistent 3-agent problems. Overall, our approach
generates a large number of consistent TC-type AWPs involving 2 or 3 agents. As
ABox has all the information of a problem, any annotations can also be
generated. Adopting the proposed approach to generate other types of AWPs is
interesting future work.
- Abstract(参考訳): 算術語問題(awps)の機械生成は量と数学的関係を表現し、一貫性を持たなければならないため困難である。
ML-solversは、言語の変化に一貫性のある大量の注釈付きトレーニングセットを必要とする。
整合性チェックにはドメイン知識のエクスプロイトが必要であるが、LSTMベースのアプローチは言語のバリエーションのあるテキストを生成するのに適している。
これらを組み合わせることで、エージェント間のオブジェクト転送を含む、TC型(Transfer-Case)の一貫性のある単語問題を生成するシステムOLGAを提案する。
トレーニング用に一貫した2エージェントTCプロブレムのデータセットを提供するが、LSTMベースのジェネレータの出力の36%しか一貫性がない。
我々は以前提案したTC-Ontologyの拡張を用いて問題の整合性を決定する。
残りの64%のうち約40%は小さなエラーがあり、同じオントロジーを使って修復する。
一貫性と修復プロセスをチェックするため、私たちは自動生成問題のインスタンス固有表現(abox)を構築します。
このタスクには文分類器とBERTモデルを使用します。
これらのLMのトレーニングセットは、文部がオントロジークラス名で注釈付けされる問題テキストである。
3エージェント問題の方が長いため、LSTMベースのアプローチによって生じる一貫した問題の割合はさらに低下する。
そこで本研究では,一貫した2エージェント問題を3エージェント問題に拡張するオントロジーに基づく手法を提案する。
全体として,本手法は2~3個のエージェントを含む多数のTC型AFPを生成する。
ABoxは問題のすべての情報を持っているので、どんなアノテーションも生成できます。
他の種類のAWPを生成するために提案されたアプローチを採用することは、今後の興味深い作業である。
関連論文リスト
- Gap-Filling Prompting Enhances Code-Assisted Mathematical Reasoning [0.0]
パターン・オブ・シント(CoT)とプログラム・オブ・シント(PoT)ファインチューニング(PoT)は、LPMの知識を小さな言語モデル(SLM)に転送する一般的な方法である。
本稿では,SLMの問題解決プロセスを強化するために,新たな2段階のプロンプト戦略であるGap-Filling Prompting(GFP)を紹介する。
論文 参考訳(メタデータ) (2024-11-08T08:52:59Z) - Textualized Agent-Style Reasoning for Complex Tasks by Multiple Round LLM Generation [49.27250832754313]
我々は、llmベースの自律エージェントフレームワークであるAgentCOTを紹介する。
それぞれのステップで、AgentCOTはアクションを選択し、それを実行して、証拠を裏付ける中間結果を得る。
エージェントCOTの性能を高めるための2つの新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-09-19T02:20:06Z) - From Large to Tiny: Distilling and Refining Mathematical Expertise for Math Word Problems with Weakly Supervision [12.023661884821554]
本稿では,大規模言語モデルから小型言語モデルへの数学的知識の伝達を徹底的に行う,革新的な2段階のフレームワークを提案する。
提案手法は,探索型'確率方程式'ペアにおける意味理解機能を完全に活用する。
Math23KとWeak12Kデータセットでは、既存の小さなモデルメソッドと比較して大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-03-21T13:29:54Z) - Merging Multi-Task Models via Weight-Ensembling Mixture of Experts [64.94129594112557]
異なるタスクでトレーニングされたTransformerベースのモデルを単一の統一モデルにマージすることで、すべてのタスクを同時に実行できる。
従来の手法は、タスク演算によって例示され、効率的かつスケーラブルであることが証明されている。
本稿では,Transformer層をMoEモジュールにアップスケーリングしながら,ほとんどのパラメータをマージすることを提案する。
論文 参考訳(メタデータ) (2024-02-01T08:58:57Z) - Look Before You Leap: A Universal Emergent Decomposition of Retrieval
Tasks in Language Models [58.57279229066477]
本研究では,言語モデル(LM)が様々な状況下での検索タスクをどのように解決するかを検討する。
ORIONは6つのドメインにまたがる構造化された検索タスクの集合である。
LMは内部的にモジュール方式で検索タスクを分解する。
論文 参考訳(メタデータ) (2023-12-13T18:36:43Z) - Thought Propagation: An Analogical Approach to Complex Reasoning with Large Language Models [62.96551299003463]
大規模言語モデルの複雑な推論能力を高めるために,textbftextitThought Propagation (TP)を提案する。
TP はまず LLM に対して,入力問題に関連する類似問題の集合を提案し,解決するよう促す。
TPは、類似問題の結果を再利用して、新しいソリューションを直接生成したり、スクラッチから得られた初期ソリューションを修正するための知識集約的な実行プランを導出する。
論文 参考訳(メタデータ) (2023-10-06T01:40:09Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - Multi-Agent Reinforcement Learning is a Sequence Modeling Problem [33.679936867612525]
マルチエージェントトランス (MAT) という新しいアーキテクチャを導入する。
MATは協調型マルチエージェント強化学習(MARL)をSM問題にキャストする。
MATの中心はエンコーダ・デコーダアーキテクチャであり、共同ポリシー探索問題を逐次決定プロセスに変換する。
論文 参考訳(メタデータ) (2022-05-30T09:39:45Z) - Tackling Math Word Problems with Fine-to-Coarse Abstracting and
Reasoning [22.127301797950572]
本稿では,局所的なきめ細かい情報と,その大域的な論理構造の両方を捉えるために,微粒な方法で数学語問題をモデル化することを提案する。
我々のモデルは局所的な変動に自然に敏感であり、目に見えない問題タイプにより良い一般化が可能である。
論文 参考訳(メタデータ) (2022-05-17T12:14:44Z) - Regret Bounds for Decentralized Learning in Cooperative Multi-Agent
Dynamical Systems [3.9599054392856488]
マルチエージェント強化学習(MARL)における二次解析の課題
補助単エージェントLQ問題の構成に基づくMARLアルゴリズムを提案する。
我々のアルゴリズムは $tildeO(sqrtT)$ regret bound を提供する。
論文 参考訳(メタデータ) (2020-01-27T23:37:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。