論文の概要: Facilitating Cognitive Accessibility with LLMs: A Multi-Task Approach to Easy-to-Read Text Generation
- arxiv url: http://arxiv.org/abs/2510.00662v1
- Date: Wed, 01 Oct 2025 08:44:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.471935
- Title: Facilitating Cognitive Accessibility with LLMs: A Multi-Task Approach to Easy-to-Read Text Generation
- Title(参考訳): LLMによる認知的アクセシビリティの実現:読みやすいテキスト生成のためのマルチタスクアプローチ
- Authors: François Ledoyen, Gaël Dias, Jeremie Pantin, Alexis Lechervy, Fabrice Maurel, Youssef Chahir,
- Abstract要約: ETR(Easy-to-Read)イニシアチブは、ニューロディバージェント人口にコンテンツがアクセスできるようにするためのフレームワークを提供する。
本研究では,大規模言語モデル(LLM)のERRコンテンツの自動生成の可能性について検討する。
本稿では,テキスト要約,テキスト単純化,ETR生成を併用したマルチタスク学習(MTL)手法を提案する。
- 参考スコア(独自算出の注目度): 2.5978291328554373
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Simplifying complex texts is essential for ensuring equitable access to information, especially for individuals with cognitive impairments. The Easy-to-Read (ETR) initiative offers a framework for making content accessible to the neurodivergent population, but the manual creation of such texts remains time-consuming and resource-intensive. In this work, we investigate the potential of large language models (LLMs) to automate the generation of ETR content. To address the scarcity of aligned corpora and the specificity of ETR constraints, we propose a multi-task learning (MTL) approach that trains models jointly on text summarization, text simplification, and ETR generation. We explore two different strategies: multi-task retrieval-augmented generation (RAG) for in-context learning, and MTL-LoRA for parameter-efficient fine-tuning. Our experiments with Mistral-7B and LLaMA-3-8B, based on ETR-fr, a new high-quality dataset, demonstrate the benefits of multi-task setups over single-task baselines across all configurations. Moreover, results show that the RAG-based strategy enables generalization in out-of-domain settings, while MTL-LoRA outperforms all learning strategies within in-domain configurations.
- Abstract(参考訳): 複雑なテキストを単純化することは、情報への公平なアクセスを確保するために、特に認知障害のある個人にとって不可欠である。
ETR(Easy-to-Read)イニシアチブは、ニューロディバージェント人口にコンテンツがアクセスできるようにするためのフレームワークを提供するが、そのようなテキストを手作業で作成することは時間とリソースを消費する。
本研究では,大規模な言語モデル (LLM) によるERRコンテンツの自動生成の可能性について検討する。
整列コーパスの不足とETR制約の特異性に対処するため,テキスト要約,テキスト単純化,ETR生成を共同で学習するマルチタスク学習(MTL)手法を提案する。
テキスト内学習のためのマルチタスク検索拡張生成(RAG)とパラメータ効率の良い微調整のためのMTL-LoRAの2つの戦略を探索する。
新しい高品質データセットであるETR-frをベースとしたMistral-7BとLLaMA-3-8Bによる実験は、全構成にわたってシングルタスクベースラインよりもマルチタスクセットアップの利点を実証している。
さらに、RAGベースの戦略により、ドメイン外設定での一般化が可能であり、MTL-LoRAはドメイン内設定における学習戦略よりも優れていた。
関連論文リスト
- Advancing Compositional LLM Reasoning with Structured Task Relations in Interactive Multimodal Communications [42.945657927971]
本稿では,無線ネットワーク上での単一合成LLMを用いて,多様なIMAを実現する新しいパラダイムを提案する。
最初の課題に取り組むために、我々はILMを案内する新しい方法であるContextLoRAを提案し、IMA間のリッチな構造化コンテキストを学習する。
3つのベンチマークの実験は、提案されたContextLoRAとContextGearの優位性を示している。
論文 参考訳(メタデータ) (2025-07-28T09:33:12Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - MiniRAG: Towards Extremely Simple Retrieval-Augmented Generation [22.512017529583332]
MiniRAG(ミニラグ)は、極端に単純で効率的に設計された新規なレトリーバル拡張世代(RAG)システムである。
MiniRAGは,(1)テキストチャンクと名前付きエンティティを統一構造に結合し,複雑な意味理解への依存を軽減し,(2)高度な言語能力を必要としない効率的な知識発見のためにグラフ構造を利用する軽量なトポロジ強化検索手法を提案する。
論文 参考訳(メタデータ) (2025-01-12T04:44:06Z) - MTL-LoRA: Low-Rank Adaptation for Multi-Task Learning [74.43869839954168]
MTL能力を大幅に向上させながら、低ランク適応の利点を保ちつつ、MTL-LoRAを提案する。
MTL-LoRAは、タスク固有の情報を識別し、共有知識をキャプチャするタスク適応パラメータを追加することで、LoRAを強化する。
このアプローチにより、事前訓練されたモデルは、限られた数のトレーニング可能なパラメータで、異なるターゲットドメインに共同で適応することができる。
論文 参考訳(メタデータ) (2024-10-12T08:32:26Z) - A Framework to Implement 1+N Multi-task Fine-tuning Pattern in LLMs
Using the CGC-LORA Algorithm [7.521690071464451]
大規模言語モデル (LLM) において, 1 + N mutli-task の微調整パターンを実装する統一フレームワークを提案する。
我々の研究は、MPL(CGC)とPEFT(LoRA)の両方の利点を享受することを目的としている。
論文 参考訳(メタデータ) (2024-01-22T07:58:31Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。