論文の概要: Policy-based Sentence Simplification: Replacing Parallel Corpora with LLM-as-a-Judge
- arxiv url: http://arxiv.org/abs/2512.06228v1
- Date: Sat, 06 Dec 2025 00:29:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.248961
- Title: Policy-based Sentence Simplification: Replacing Parallel Corpora with LLM-as-a-Judge
- Title(参考訳): ポリシーに基づく文の簡略化:LLM-as-a-Judgeによる並列コーパスの置き換え
- Authors: Xuanxin Wu, Yuki Arase, Masaaki Nagata,
- Abstract要約: 文の簡潔化は、意味を保ちながら読みやすく理解しやすくするために文を変更することを目的としている。
異なるアプリケーションには、語彙レベルで複雑な単語だけを置き換えたり、文全体を書き換えたりといった、明確な単純化ポリシーが必要である。
本稿では、LLM-as-a-Judge(Large Language Model-as-a-Judge)を利用して、ポリシーに沿ったトレーニングデータを自動的に構築するシンプルな強力なアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.557044002544586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentence simplification aims to modify a sentence to make it easier to read and understand while preserving the meaning. Different applications require distinct simplification policies, such as replacing only complex words at the lexical level or rewriting the entire sentence while trading off details for simplicity. However, achieving such policy-driven control remains an open challenge. In this work, we introduce a simple yet powerful approach that leverages Large Language Model-as-a-Judge (LLM-as-a-Judge) to automatically construct policy-aligned training data, completely removing the need for costly human annotation or parallel corpora. Our method enables building simplification systems that adapt to diverse simplification policies. Remarkably, even small-scale open-source LLMs such as Phi-3-mini-3.8B surpass GPT-4o on lexical-oriented simplification, while achieving comparable performance on overall rewriting, as verified by both automatic metrics and human evaluations. The consistent improvements across model families and sizes demonstrate the robustness of our approach.
- Abstract(参考訳): 文の簡潔化は、意味を保ちながら読みやすく理解しやすくするために文を変更することを目的としている。
異なるアプリケーションには、語彙レベルで複雑な単語だけを置換したり、簡潔さのために詳細を交換しながら文全体を書き換えるといった、明確な単純化ポリシーが必要である。
しかし、このような政策主導のコントロールを達成することは、依然としてオープンな課題である。
本研究では、LLM-as-a-Judge(Large Language Model-as-a-Judge)を利用して、ポリシーに沿ったトレーニングデータを自動的に構築し、コストのかかる人的アノテーションや並列コーパスの必要性を完全に排除する、シンプルで強力なアプローチを提案する。
本手法は,多種多様な簡易化政策に対応する簡易化システムの構築を可能にする。
注目すべきは、Phi-3-mini-3.8B のような小規模のオープンソース LLM でさえ、語彙指向の単純化において GPT-4o を超え、自動メトリクスと人的評価の両方で検証されたように、全体の書き換えにおいて同等のパフォーマンスを達成したことである。
モデルファミリとサイズをまたいだ一貫した改善は、私たちのアプローチの堅牢性を示しています。
関連論文リスト
- LLMs Can Generate a Better Answer by Aggregating Their Own Responses [83.69632759174405]
大きな言語モデル(LLM)はタスク間で顕著な機能を示しているが、複雑な問題に直面している場合、追加のプロンプト技術を必要とすることが多い。
この制限は、共通LLMポストトレーニング手順が差別的判断タスクの明示的な監督を欠いているという事実に起因している、と我々は主張する。
本稿では,モデルの識別機能を必要とせず,解答品質を向上させる手法である生成自己集合(GSA)を提案する。
論文 参考訳(メタデータ) (2025-03-06T05:25:43Z) - Simple is not Enough: Document-level Text Simplification using Readability and Coherence [20.613410797137036]
我々は,コヒーレンスなどの簡易性,可読性,談話性を考慮した簡易化モデルであるSimDocシステムを提案する。
私たちは、シンプルさ、可読性、一貫性をすべて考慮し、トレーニング中に複数の目標を含みます。
本稿では、文書レベルのTSコーパスを用いて、ゼロショット、少数ショット、微調整設定で提案したモデルを評価する。
論文 参考訳(メタデータ) (2024-12-24T19:05:21Z) - An LLM-Enhanced Adversarial Editing System for Lexical Simplification [10.519804917399744]
Lexical Simplificationは、語彙レベルでのテキストの簡略化を目的としている。
既存のメソッドはアノテーション付きデータに大きく依存している。
並列コーパスのない新しいLS法を提案する。
論文 参考訳(メタデータ) (2024-02-22T17:04:30Z) - Dancing Between Success and Failure: Edit-level Simplification
Evaluation using SALSA [21.147261039292026]
編集ベースのヒューマンアノテーションフレームワークであるSALSAを紹介する。
我々は、成功と失敗の全範囲をカバーする、言語的に基礎付けられた20の編集タイプを開発する。
LENS-SALSAは,文品質と単語品質を同時に予測するために訓練された,参照不要な自動単純化指標である。
論文 参考訳(メタデータ) (2023-05-23T18:30:49Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Exploring Continuous Integrate-and-Fire for Adaptive Simultaneous Speech
Translation [75.86581380817464]
SimulSTシステムは通常、音声情報を集約する事前決定と、読み書きを決定するポリシーの2つのコンポーネントを含む。
本稿では,CIF(Continuous Integrate-and-Fire)を適用して適応政策をモデル化することを提案する。
単調なマルチヘッドアテンション (MMA) と比較して,本手法はより単純な計算,低レイテンシにおける品質,長い発話の一般化に優れる。
論文 参考訳(メタデータ) (2022-03-22T23:33:18Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。