論文の概要: Exploring Large Language Models to generate Easy to Read content
- arxiv url: http://arxiv.org/abs/2407.20046v1
- Date: Mon, 29 Jul 2024 14:30:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 13:34:43.344052
- Title: Exploring Large Language Models to generate Easy to Read content
- Title(参考訳): 読みやすいコンテンツを生成するための大規模言語モデルの探索
- Authors: Paloma Martínez, Lourdes Moreno, Alberto Ramos,
- Abstract要約: 読みやすく、平易な言語ガイドラインは、複雑なテキストを簡単にすることを目的としている。
これらのガイドラインの標準化は依然として困難であり、しばしば手作業によるプロセスが伴う。
この研究は、スペイン語のテキストを体系的に簡単読みやすい形式に単純化するために、人工知能(AI)と自然言語処理(NLP)アプローチを活用するための探索的な調査である。
- 参考スコア(独自算出の注目度): 1.474723404975345
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring text accessibility and understandability are essential goals, particularly for individuals with cognitive impairments and intellectual disabilities, who encounter challenges in accessing information across various mediums such as web pages, newspapers, administrative tasks, or health documents. Initiatives like Easy to Read and Plain Language guidelines aim to simplify complex texts; however, standardizing these guidelines remains challenging and often involves manual processes. This work presents an exploratory investigation into leveraging Artificial Intelligence (AI) and Natural Language Processing (NLP) approaches to systematically simplify Spanish texts into Easy to Read formats, with a focus on utilizing Large Language Models (LLMs) for simplifying texts, especially in generating Easy to Read content. The study contributes a parallel corpus of Spanish adapted for Easy To Read format, which serves as a valuable resource for training and testing text simplification systems. Additionally, several text simplification experiments using LLMs and the collected corpus are conducted, involving fine-tuning and testing a Llama2 model to generate Easy to Read content. A qualitative evaluation, guided by an expert in text adaptation for Easy to Read content, is carried out to assess the automatically simplified texts. This research contributes to advancing text accessibility for individuals with cognitive impairments, highlighting promising strategies for leveraging LLMs while responsibly managing energy usage.
- Abstract(参考訳): テキストアクセシビリティと理解可能性を保証することは、特に認知障害や知的障害を持つ個人にとって必須の目標であり、Webページ、新聞、行政タスク、健康文書などの様々な媒体で情報にアクセスする際の困難に直面している。
読みやすいガイドラインや平易な言語ガイドラインのようなイニシアチブは、複雑なテキストを単純化することを目的としているが、これらのガイドラインの標準化は依然として困難であり、しばしば手作業によるプロセスが伴う。
この研究は、スペイン語のテキストを簡単読みやすい形式に体系的に単純化する人工知能(AI)と自然言語処理(NLP)アプローチの探索的研究であり、特に読みやすいコンテンツの生成において、テキストをシンプルにするためのLarge Language Models(LLM)の利用に焦点を当てている。
この研究は、Easy To Readフォーマットに適合したスペイン語の並列コーパスに貢献し、テキスト単純化システムのトレーニングとテストに有用なリソースとなっている。
さらに,Llama2モデルを微調整して,読みやすいコンテンツを生成することを含む,LLMと収集コーパスを用いたテキスト簡易化実験を行った。
コンテンツを読みやすくするために、テキスト適応の専門家が指導する質的評価を行い、自動的に簡略化されたテキストを評価する。
本研究は認知障害者のテキストアクセシビリティ向上に寄与し、LCMを活用する上で有望な戦略を明らかにするとともに、エネルギー利用の責任を負う。
関連論文リスト
- Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - Systematic Task Exploration with LLMs: A Study in Citation Text Generation [63.50597360948099]
大規模言語モデル(LLM)は、複雑な創造的自然言語生成(NLG)タスクの定義と実行において、前例のない柔軟性をもたらす。
本稿では,系統的な入力操作,参照データ,出力測定からなる3成分研究フレームワークを提案する。
我々はこのフレームワークを用いて引用テキスト生成を探索する。これは一般的なNLPタスクであり、タスク定義と評価基準に関するコンセンサスを欠いている。
論文 参考訳(メタデータ) (2024-07-04T16:41:08Z) - Automating Easy Read Text Segmentation [2.7309692684728617]
読みやすいテキストは、読み難い人のための情報にアクセスするための主要な形態の1つである。
このタイプのテキストの重要な特徴の1つは、文をより小さな文法セグメントに分割する必要があることである。
マスク付きおよび生成言語モデルと構成的構文解析を併用して,タスクのための新しい手法について検討する。
論文 参考訳(メタデータ) (2024-06-17T12:25:25Z) - Digital Comprehensibility Assessment of Simplified Texts among Persons
with Intellectual Disabilities [2.446971913303003]
本研究は,タブレットコンピュータ上でドイツ語のテキストを読み取る知的障害を有する者を含むテキスト理解度の評価を行った。
複数選択的理解質問、難易度評価、応答時間、読解速度の4つの異なる方法について検討した。
知的障害者の対象群では,読解速度の分析が参加者の読解行動に有意な洞察を与える一方で,最も信頼性の高い尺度として理解的疑問が出現した。
論文 参考訳(メタデータ) (2024-02-20T15:37:08Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - SeqXGPT: Sentence-Level AI-Generated Text Detection [62.3792779440284]
大規模言語モデル(LLM)を用いた文書の合成による文レベル検出の課題について紹介する。
次に,文レベルのAIGT検出機能として,ホワイトボックスLEMのログ確率リストを利用した textbfSequence textbfX (Check) textbfGPT を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:18:53Z) - LC-Score: Reference-less estimation of Text Comprehension Difficulty [0.0]
我々は、参照なしのフランス語テキストに対して、テキスト理解度を訓練するための簡単なアプローチであるtextscLC-Scoreを提示する。
我々の目的は,テキストがtextitLangage Clair (LC, textitClear Language) ガイドラインに適合する範囲を定量的に把握することである。
i) 統計モデルの学習に使用される言語的動機付け指標を使用すること,(ii) 事前学習された言語モデルを利用したテキストから直接ニューラルラーニングを行うこと,の2つのアプローチを探索する。
論文 参考訳(メタデータ) (2023-10-04T11:49:37Z) - ARTIST: ARTificial Intelligence for Simplified Text [5.095775294664102]
テキスト単純化は、テキストの言語的複雑さを減らすことを目的とした、自然言語処理の重要なタスクである。
生成人工知能(AI)の最近の進歩により、語彙レベルと構文レベルの両方で自動テキストの簡略化が可能になった。
論文 参考訳(メタデータ) (2023-08-25T16:06:06Z) - Controlling Pre-trained Language Models for Grade-Specific Text
Simplification [22.154454849167077]
本研究では,異なる制御機構がテキスト単純化システムの妥当性と簡易性に与える影響について検討する。
本稿では,インスタンス単位のインスタンス単位で,特定のグレードレベルのテキストを簡略化するために必要な編集操作を簡易に予測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T10:29:45Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - CLIP also Understands Text: Prompting CLIP for Phrase Understanding [65.59857372525664]
Contrastive Language-Image Pretraining (CLIP)は、自然言語による事前学習によって視覚概念を効率的に学習する。
本稿では,CLIPのテキストエンコーダが語句理解の強力な能力を示し,適切な設計のプロンプトでBERTなどの一般的な言語モデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T23:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。