論文の概要: Grammar-Forced Translation of Natural Language to Temporal Logic using LLMs
- arxiv url: http://arxiv.org/abs/2512.16814v1
- Date: Thu, 18 Dec 2025 17:55:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.189438
- Title: Grammar-Forced Translation of Natural Language to Temporal Logic using LLMs
- Title(参考訳): LLMを用いた自然言語から時相論理への文法の強制翻訳
- Authors: William English, Dominic Simon, Sumit Kumar Jha, Rickard Ewetz,
- Abstract要約: グラマー強制翻訳(GraFT)と呼ばれるNLからTLへの翻訳のためのフレームワークを提案する。
GraFTは、有効な出力トークンの集合を全語彙から各ステップでほんの一握りに制限することで、両方のタスクの複雑さを減らす。
CW,GLTL,Naviベンチマークを用いてGraFTの有効性を評価する。
- 参考スコア(独自算出の注目度): 11.37102335479887
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating natural language (NL) into a formal language such as temporal logic (TL) is integral for human communication with robots and autonomous systems. State-of-the-art approaches decompose the task into a lifting of atomic propositions (APs) phase and a translation phase. However, existing methods struggle with accurate lifting, the existence of co-references, and learning from limited data. In this paper, we propose a framework for NL to TL translation called Grammar Forced Translation (GraFT). The framework is based on the observation that previous work solves both the lifting and translation steps by letting a language model iteratively predict tokens from its full vocabulary. In contrast, GraFT reduces the complexity of both tasks by restricting the set of valid output tokens from the full vocabulary to only a handful in each step. The solution space reduction is obtained by exploiting the unique properties of each problem. We also provide a theoretical justification for why the solution space reduction leads to more efficient learning. We evaluate the effectiveness of GraFT using the CW, GLTL, and Navi benchmarks. Compared with state-of-the-art translation approaches, it can be observed that GraFT the end-to-end translation accuracy by 5.49% and out-of-domain translation accuracy by 14.06% on average.
- Abstract(参考訳): 自然言語(NL)を時間論理(TL)のような形式言語に変換することは、ロボットや自律システムとの人間のコミュニケーションに不可欠である。
State-of-the-artアプローチはタスクをアトミック命題(AP)フェーズと翻訳フェーズに分解する。
しかし、既存の手法は正確なリフト、コレファレンスの存在、限られたデータからの学習に苦慮している。
本稿では,Gramar Forced Translation (GraFT) と呼ばれるNLからTLへの翻訳フレームワークを提案する。
このフレームワークは、言語モデルがその完全な語彙からトークンを反復的に予測することによって、以前の作業がリフトと翻訳の両方のステップを解決するという観察に基づいている。
対照的にGraFTは、有効な出力トークンの集合を全語彙から各ステップでほんの一握りに制限することで、両方のタスクの複雑さを減らす。
解空間の低減は各問題の特異性を利用して得られる。
また、解空間の削減がより効率的な学習に繋がる理由を理論的に正当化する。
CW,GLTL,Naviベンチマークを用いてGraFTの有効性を評価する。
最先端の翻訳手法と比較して、GraFTはエンドツーエンドの翻訳精度が5.49%、ドメイン外の翻訳精度が平均14.06%である。
関連論文リスト
- Testing the Limits of Machine Translation from One Book [0.0]
現在の最先端モデルは、コンテキスト内学習を活用して、以前は目に見えない言語コンテキストに変換する能力を示している。
話者数が多いにも関わらず、最小限のデジタルリソースを持つ言語であるKanuriに焦点を当てる。
論文 参考訳(メタデータ) (2025-08-08T19:27:44Z) - Lost in Literalism: How Supervised Training Shapes Translationese in LLMs [51.04435855143767]
大規模言語モデル(LLM)は機械翻訳において顕著な成功を収めた。
しかし、過度にリテラルと不自然な翻訳を特徴とする翻訳は、依然として永続的な課題である。
我々は、黄金の基準を磨き、不自然なトレーニングインスタンスをフィルタリングするなど、これらのバイアスを軽減する方法を導入する。
論文 参考訳(メタデータ) (2025-03-06T12:14:45Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - Contextual Refinement of Translations: Large Language Models for Sentence and Document-Level Post-Editing [12.843274390224853]
大規模言語モデル(LLM)は、様々な自然言語処理タスクでかなりの成功を収めている。
ニューラルネットワーク翻訳における最先端性能は,まだ達成できていない。
直接翻訳者ではなく,自動編集者 (APE) としてLLMを適用することを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:22:15Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Rethinking Round-Trip Translation for Machine Translation Evaluation [44.83568796515321]
ラウンドトリップ翻訳が参照なしで自動評価に利用できるという驚くべき発見を報告する。
ラウンドトリップ翻訳が複数の機械翻訳評価タスクに有用であることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:06:20Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。