論文の概要: SimplifyMyText: An LLM-Based System for Inclusive Plain Language Text Simplification
- arxiv url: http://arxiv.org/abs/2504.14223v1
- Date: Sat, 19 Apr 2025 08:07:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 04:06:55.421953
- Title: SimplifyMyText: An LLM-Based System for Inclusive Plain Language Text Simplification
- Title(参考訳): SimplifyMyText: 包括的プレーン言語テキスト簡略化のためのLLMベースのシステム
- Authors: Michael Färber, Parisa Aghdam, Kyuri Im, Mario Tawfelis, Hardik Ghoshal,
- Abstract要約: 本論文は,複数の入力形式から平易な言語コンテンツを生成するように設計された最初のシステムである。
我々は、GPT-4とLlama-3を採用し、複数のメトリクスのアウトプットを評価した。
- 参考スコア(独自算出の注目度): 8.027416277493924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text simplification is essential for making complex content accessible to diverse audiences who face comprehension challenges. Yet, the limited availability of simplified materials creates significant barriers to personal and professional growth and hinders social inclusion. Although researchers have explored various methods for automatic text simplification, none fully leverage large language models (LLMs) to offer tailored customization for different target groups and varying levels of simplicity. Moreover, despite its proven benefits for both consumers and organizations, the well-established practice of plain language remains underutilized. In this paper, we https://simplifymytext.org, the first system designed to produce plain language content from multiple input formats, including typed text and file uploads, with flexible customization options for diverse audiences. We employ GPT-4 and Llama-3 and evaluate outputs across multiple metrics. Overall, our work contributes to research on automatic text simplification and highlights the importance of tailored communication in promoting inclusivity.
- Abstract(参考訳): テキストの単純化は、理解上の困難に直面している多様なオーディエンスに複雑なコンテンツをアクセスできるようにするために不可欠である。
しかし、シンプルな素材の入手が制限されることは、個人的および専門的な成長に重大な障壁をもたらし、社会的包摂を妨げる。
研究者は、テキストの自動単純化の様々な方法を模索してきたが、大きな言語モデル(LLM)を完全に活用して、異なるターゲットグループと様々なレベルの単純さをカスタマイズすることはなかった。
さらに、消費者と組織双方にメリットがあることが証明されているにもかかわらず、確立された平易な言語の実践はいまだに未利用のままである。
本稿では,複数の入力形式からテキストやファイルのアップロードを含むプレーンな言語コンテンツを生成するために設計された最初のシステムであるhttps://simplifymytext.orgについて述べる。
我々は、GPT-4とLlama-3を採用し、複数のメトリクスのアウトプットを評価した。
全体として、本研究は、自動テキスト単純化の研究に寄与し、傾きの促進における調整されたコミュニケーションの重要性を強調している。
関連論文リスト
- Towards Visual Text Grounding of Multimodal Large Language Model [88.0588924255417]
本稿では,テキストリッチな画像グラウンドのベンチマークを行うための命令データセットを新たに設計した新しいタスクであるTRIGを紹介する。
具体的には,OCR-LLM-ヒューマンインタラクションパイプラインを提案し,800の注釈付き質問応答ペアをベンチマークとして作成する。
提案したベンチマークによる各種MLLMの包括的評価は,テキストリッチな画像上でのグラウンド化能力の大幅な制限を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T12:01:59Z) - Simple is not Enough: Document-level Text Simplification using Readability and Coherence [20.613410797137036]
我々は,コヒーレンスなどの簡易性,可読性,談話性を考慮した簡易化モデルであるSimDocシステムを提案する。
私たちは、シンプルさ、可読性、一貫性をすべて考慮し、トレーニング中に複数の目標を含みます。
本稿では、文書レベルのTSコーパスを用いて、ゼロショット、少数ショット、微調整設定で提案したモデルを評価する。
論文 参考訳(メタデータ) (2024-12-24T19:05:21Z) - Human Variability vs. Machine Consistency: A Linguistic Analysis of Texts Generated by Humans and Large Language Models [0.0]
人文テキストと大言語モデル(LLM)で生成されたテキストとの有意な差異を同定する。
以上の結果から,人間は認知的要求の少ない文章を書けること,意味的内容の充実,感情的内容の充実などが示唆された。
論文 参考訳(メタデータ) (2024-12-04T04:38:35Z) - Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Exploring Large Language Models to generate Easy to Read content [1.474723404975345]
読みやすく、平易な言語ガイドラインは、複雑なテキストを簡単にすることを目的としている。
これらのガイドラインの標準化は依然として困難であり、しばしば手作業によるプロセスが伴う。
この研究は、スペイン語のテキストを体系的に簡単読みやすい形式に単純化するために、人工知能(AI)と自然言語処理(NLP)アプローチを活用するための探索的な調査である。
論文 参考訳(メタデータ) (2024-07-29T14:30:39Z) - Automating Easy Read Text Segmentation [2.7309692684728617]
読みやすいテキストは、読み難い人のための情報にアクセスするための主要な形態の1つである。
このタイプのテキストの重要な特徴の1つは、文をより小さな文法セグメントに分割する必要があることである。
マスク付きおよび生成言語モデルと構成的構文解析を併用して,タスクのための新しい手法について検討する。
論文 参考訳(メタデータ) (2024-06-17T12:25:25Z) - ARTIST: ARTificial Intelligence for Simplified Text [5.095775294664102]
テキスト単純化は、テキストの言語的複雑さを減らすことを目的とした、自然言語処理の重要なタスクである。
生成人工知能(AI)の最近の進歩により、語彙レベルと構文レベルの両方で自動テキストの簡略化が可能になった。
論文 参考訳(メタデータ) (2023-08-25T16:06:06Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Multilingual Simplification of Medical Texts [49.469685530201716]
4つの言語で医療領域のための文章整列型多言語テキスト単純化データセットであるMultiCochraneを紹介する。
これらの言語にまたがる微調整およびゼロショットモデルの評価を行い,人間による評価と分析を行った。
モデルは、実行可能な単純化されたテキストを生成することができるが、このデータセットが扱う可能性のある、卓越した課題を特定する。
論文 参考訳(メタデータ) (2023-05-21T18:25:07Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。