論文の概要: Let's Simplify Step by Step: Guiding LLM Towards Multilingual Unsupervised Proficiency-Controlled Sentence Simplification
- arxiv url: http://arxiv.org/abs/2602.07499v1
- Date: Sat, 07 Feb 2026 11:21:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.656741
- Title: Let's Simplify Step by Step: Guiding LLM Towards Multilingual Unsupervised Proficiency-Controlled Sentence Simplification
- Title(参考訳): ステップ・バイ・ステップをシンプルにしよう:LLMを多言語で教師なしの熟練度に導く
- Authors: Jingshen Zhang, Xin Ying Qiu, Lifang Lu, Zhuhua Huang, Yutao Hu, Yuechang Wu, JunYu Lu,
- Abstract要約: 大きな言語モデルは、熟練度制御された文の単純化において限られた能力を示す。
複雑な単純化を管理可能なステップに分解するフレームワークを提案する。
提案手法は, 計算ステップを22~42%削減し, 単純化効率の向上を図っている。
- 参考スコア(独自算出の注目度): 8.985694067999864
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models demonstrate limited capability in proficiency-controlled sentence simplification, particularly when simplifying across large readability levels. We propose a framework that decomposes complex simplifications into manageable steps through dynamic path planning, semantic-aware exemplar selection, and chain-of-thought generation with conversation history for coherent reasoning. Evaluation on five languages across two benchmarks shows our approach improves simplification effectiveness while reducing computational steps by 22-42%. Human evaluation confirms the fundamental trade-off between simplification effectiveness and meaning preservation. Notably, even human annotators struggle to agree on semantic preservation judgments, highlighting the inherent complexity of this task. Our work shows that while step-by-step simplification improves control, preserving semantic fidelity during extensive simplification remains an open challenge.
- Abstract(参考訳): 大規模言語モデルは、特に大きな可読性レベルを越えて単純化する場合に、習熟度制御された文の単純化において限られた能力を示す。
本稿では,複雑な単純化を動的経路計画,意味認識的経験的選択,そしてコヒーレント推論のための会話履歴を用いたチェーン・オブ・思想生成を通じて,管理可能なステップに分解するフレームワークを提案する。
2つのベンチマークで5つの言語を評価することで,計算ステップを22~42%削減し,単純化の有効性が向上した。
人間の評価は、単純化効果と意味保存の基本的なトレードオフを確認する。
特に、人間アノテータでさえ、このタスクの本質的な複雑さを強調しながら、意味保存の判断に同意するのに苦労している。
我々の研究は、ステップバイステップの単純化が制御を改善する一方で、広範囲な単純化の間に意味的忠実性を維持することは、依然としてオープンな課題であることを示している。
関連論文リスト
- Policy-based Sentence Simplification: Replacing Parallel Corpora with LLM-as-a-Judge [14.557044002544586]
文の簡潔化は、意味を保ちながら読みやすく理解しやすくするために文を変更することを目的としている。
異なるアプリケーションには、語彙レベルで複雑な単語だけを置き換えたり、文全体を書き換えたりといった、明確な単純化ポリシーが必要である。
本稿では、LLM-as-a-Judge(Large Language Model-as-a-Judge)を利用して、ポリシーに沿ったトレーニングデータを自動的に構築するシンプルな強力なアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-06T00:29:49Z) - A Hybrid Multi-Agent Prompting Approach for Simplifying Complex Sentences [0.0]
本稿では,高度プロンプトとマルチエージェントアーキテクチャを組み合わせるハイブリッド手法を提案する。
実験結果から,本手法はゲームデザインアプリケーションで書かれた複雑な文の70%を単純化することができた。
論文 参考訳(メタデータ) (2025-06-13T11:19:27Z) - Stepwise Perplexity-Guided Refinement for Efficient Chain-of-Thought Reasoning in Large Language Models [56.37421741507468]
CoT推論は大規模言語モデル(LLM)の性能を大幅に向上させた。
本稿では,その重要性の尺度としてパープレキシティを用いた批判的推論ステップの同定手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T20:04:51Z) - Aligning Sentence Simplification with ESL Learner's Proficiency for Language Acquisition [11.700462697630696]
本研究は,第2言語学習者の簡易化による英語習得を支援することを目的としている。
本稿では,複雑な文を学習者に適したレベルに単純化すると同時に,目的レベルの語彙的カバレッジを高めることを提案する。
本手法では,トークンレベルの報酬と文レベルの報酬を用いて,目標属性を満たす単純化仮説を探索するために,自己生成出力のモデルを反復的に訓練する。
論文 参考訳(メタデータ) (2025-02-17T05:32:56Z) - Enhancing LLM Character-Level Manipulation via Divide and Conquer [74.55804812450164]
大規模言語モデル(LLM)は、幅広い自然言語処理(NLP)タスクにまたがる強力な一般化機能を示している。
彼らは文字レベルの文字列操作において顕著な弱点を示し、文字削除、挿入、置換といった基本的な操作に苦労した。
本稿では,トークンレベルの処理と文字レベルの操作のギャップを埋める新しい手法であるDivide and Conquerによる文字レベル操作を提案する。
論文 参考訳(メタデータ) (2025-02-12T07:37:39Z) - Progressive Document-level Text Simplification via Large Language Models [19.57555397986868]
長い文書レベルの単純化(DS)はいまだに未調査である。
本稿では,タスクを階層的に分解してプログレッシブ単純化手法(ProgDS)を提案する。
論文 参考訳(メタデータ) (2025-01-07T15:14:37Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Learning to Selectively Learn for Weakly-supervised Paraphrase
Generation [81.65399115750054]
弱監督データを用いた高品質なパラフレーズを生成するための新しい手法を提案する。
具体的には、弱制御されたパラフレーズ生成問題に以下のように取り組む。
検索に基づく擬似パラフレーズ展開により、豊富なラベル付き並列文を得る。
提案手法は,既存の教師なしアプローチよりも大幅に改善され,教師付き最先端技術と同等の性能を示す。
論文 参考訳(メタデータ) (2021-09-25T23:31:13Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。