論文の概要: LATA: A Tool for LLM-Assisted Translation Annotation
- arxiv url: http://arxiv.org/abs/2602.10454v1
- Date: Wed, 11 Feb 2026 02:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.409177
- Title: LATA: A Tool for LLM-Assisted Translation Annotation
- Title(参考訳): LATA: LLM支援翻訳アノテーションのためのツール
- Authors: Baorong Huang, Ali Asiri,
- Abstract要約: 本稿では,専門家の判断に必要とされる,自動化と厳密な精度のギャップを解消する,LLMを利用した対話型ツールを提案する。
従来の統計的拡張性とは異なり、我々のシステムはテンプレートベースの Prompt Manager を採用しており、文のセグメンテーションとアライメントのために大きな言語モデル(LLM)を利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The construction of high-quality parallel corpora for translation research has increasingly evolved from simple sentence alignment to complex, multi-layered annotation tasks. This methodological shift presents significant challenges for structurally divergent language pairs, such as Arabic--English, where standard automated tools frequently fail to capture deep linguistic shifts or semantic nuances. This paper introduces a novel, LLM-assisted interactive tool designed to reduce the gap between scalable automation and the rigorous precision required for expert human judgment. Unlike traditional statistical aligners, our system employs a template-based Prompt Manager that leverages large language models (LLMs) for sentence segmentation and alignment under strict JSON output constraints. In this tool, automated preprocessing integrates into a human-in-the-loop workflow, allowing researchers to refine alignments and apply custom translation technique annotations through a stand-off architecture. By leveraging LLM-assisted processing, the tool balances annotation efficiency with the linguistic precision required to analyze complex translation phenomena in specialized domains.
- Abstract(参考訳): 翻訳研究のための高品質な並列コーパスの構築は、単純な文のアライメントから複雑で多層的なアノテーションタスクへと発展してきた。
この方法論的シフトは、アラビア語や英語のような構造的に異なる言語ペアにとって重要な課題であり、標準的な自動化ツールが深い言語的な変化や意味的なニュアンスを捉えるのにしばしば失敗する。
本稿では、スケーラブルな自動化と熟練した人間の判断に必要な厳密な精度とのギャップを減らし、LLMを利用した対話型ツールを提案する。
従来の統計整合器とは異なり、我々のシステムはテンプレートベースのPrompt Managerを採用しており、厳密なJSON出力制約の下で文のセグメンテーションとアライメントにLLM(Big Language Model)を利用する。
このツールでは、自動前処理がヒューマン・イン・ザ・ループのワークフローに統合され、研究者はアライメントを洗練し、スタンドオフアーキテクチャを通じてカスタム翻訳テクニックのアノテーションを適用することができる。
LLM支援処理を利用することで、アノテーションの効率と、特殊なドメインで複雑な翻訳現象を分析するのに必要な言語的精度のバランスをとる。
関連論文リスト
- Semantically Labelled Automata for Multi-Task Reinforcement Learning with LTL Instructions [61.479946958462754]
エージェントが単一のユニバーサルポリシーを学習する環境であるマルチタスク強化学習(RL)について検討する。
本稿では,新世代の意味翻訳を利用したタスク埋め込み手法を提案する。
論文 参考訳(メタデータ) (2026-02-06T14:46:27Z) - Finding the Translation Switch: Discovering and Exploiting the Task-Initiation Features in LLMs [69.28193153685893]
大きな言語モデル(LLM)は、タスク固有の微調整なしでも、しばしば強力な翻訳能力を示す。
このプロセスをデミスティフィケートするために、スパースオートエンコーダ(SAE)を活用し、タスク固有の特徴を特定するための新しいフレームワークを導入する。
我々の研究は、LLMの翻訳機構のコアコンポーネントをデコードするだけでなく、内部モデル機構を使用してより堅牢で効率的なモデルを作成するための青写真も提供しています。
論文 参考訳(メタデータ) (2026-01-16T06:29:07Z) - Fine-Tuned Language Models for Domain-Specific Summarization and Tagging [3.543800643014229]
本稿では,ドメイン固有テキスト要約とタグ付けを効率的に行うために,細調整された大言語モデル(LLM)と名前付きエンティティ認識(NER)を統合するパイプラインを提案する。
著者らは、自動化された情報抽出と法執行機関の監視を複雑にする、急速に進化するサブカルチャー言語とスラングによって引き起こされる課題に対処する。
論文 参考訳(メタデータ) (2025-10-29T12:33:48Z) - From over-reliance to smart integration: using Large-Language Models as translators between specialized modeling and simulation tools [0.3749861135832073]
大規模言語モデル(LLM)はモデリングとシミュレーション(M&S)に変革をもたらす
過信リスクは曖昧さ、論理的ショートカット、幻覚によって品質を損なう。
本稿では,M&Sタスクにおける複雑性を軽減するため,特殊なツール間でLLMを翻訳器として統合することを提唱する。
論文 参考訳(メタデータ) (2025-06-11T02:39:08Z) - Bridging the Linguistic Divide: A Survey on Leveraging Large Language Models for Machine Translation [33.08089616645845]
大言語モデル(LLM)は機械翻訳(MT)のランドスケープを再構築した
我々は,数発のプロンプト,言語間移動,パラメータ効率の微調整などの手法を解析する。
幻覚、評価の不整合、遺伝バイアスなど、永続的な課題について議論する。
論文 参考訳(メタデータ) (2025-04-02T17:26:40Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - Machine Translation with Large Language Models: Prompt Engineering for
Persian, English, and Russian Directions [0.0]
生成型大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて、例外的な習熟性を示している。
我々は,ペルシャ語,英語,ロシア語の言語間組み合わせに着目した2つの普及促進手法とその組み合わせについて調査を行った。
論文 参考訳(メタデータ) (2024-01-16T15:16:34Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。