論文の概要: Inclusive Easy-to-Read Generation for Individuals with Cognitive Impairments
- arxiv url: http://arxiv.org/abs/2510.00691v1
- Date: Wed, 01 Oct 2025 09:13:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.489446
- Title: Inclusive Easy-to-Read Generation for Individuals with Cognitive Impairments
- Title(参考訳): 認知障害者のための包括的読みやすい生成法
- Authors: François Ledoyen, Gaël Dias, Alexis Lechervy, Jeremie Pantin, Fabrice Maurel, Youssef Chahir, Elisa Gouzonnat, Mélanie Berthelot, Stanislas Moravac, Armony Altinier, Amy Khairalla,
- Abstract要約: ETR-fr は欧州の ETR ガイドラインに準拠した ETR テキスト生成のための最初のデータセットである。
本研究では, PLM と LLM をパラメータ効率よく微調整することで, 生成ベースラインの確立を図る。
その結果、PLMはLLMと互換性があり、ドメイン外のテキストに効果的に適応できることがわかった。
- 参考スコア(独自算出の注目度): 2.1481398044731574
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensuring accessibility for individuals with cognitive impairments is essential for autonomy, self-determination, and full citizenship. However, manual Easy-to-Read (ETR) text adaptations are slow, costly, and difficult to scale, limiting access to crucial information in healthcare, education, and civic life. AI-driven ETR generation offers a scalable solution but faces key challenges, including dataset scarcity, domain adaptation, and balancing lightweight learning of Large Language Models (LLMs). In this paper, we introduce ETR-fr, the first dataset for ETR text generation fully compliant with European ETR guidelines. We implement parameter-efficient fine-tuning on PLMs and LLMs to establish generative baselines. To ensure high-quality and accessible outputs, we introduce an evaluation framework based on automatic metrics supplemented by human assessments. The latter is conducted using a 36-question evaluation form that is aligned with the guidelines. Overall results show that PLMs perform comparably to LLMs and adapt effectively to out-of-domain texts.
- Abstract(参考訳): 認知障害のある個人に対するアクセシビリティを確保することは、自律性、自己決定、完全な市民権にとって不可欠である。
しかし、手動で読みやすいテキスト適応(ETR)は遅く、コストがかかり、スケールが難しく、医療、教育、市民生活において重要な情報へのアクセスが制限されている。
AI駆動のETR生成はスケーラブルなソリューションを提供するが、データセット不足、ドメイン適応、大規模言語モデル(LLM)の軽量学習の分散など、大きな課題に直面している。
本稿では,欧州のERRガイドラインに完全準拠したERRテキスト生成のための最初のデータセットであるETR-frを紹介する。
本研究では, PLM と LLM をパラメータ効率よく微調整することで, 生成ベースラインの確立を図る。
高品質でアクセシブルなアウトプットを確保するため,人間の評価によって補完される自動指標に基づく評価フレームワークを導入する。
後者はガイドラインに準拠した36項目の評価形式を用いて実施する。
その結果、PLMはLLMと互換性があり、ドメイン外のテキストに効果的に適応できることがわかった。
関連論文リスト
- Evaluating the Effectiveness of Direct Preference Optimization for Personalizing German Automatic Text Simplifications for Persons with Intellectual Disabilities [2.565122617941334]
自動テキスト単純化(ATS)は、様々なターゲットグループの言語アクセシビリティを高めることを目的としている。
LLMに基づくATSモデルに適用するための標準教師付き微調整(SFT)アプローチを拡張した。
知的障害者から収集した人的フィードバックを用いて,LSMに基づくATSモデルを訓練後評価した。
論文 参考訳(メタデータ) (2025-07-02T08:43:06Z) - Prompting Large Language Models for Training-Free Non-Intrusive Load Monitoring [12.989610657109392]
非侵入的負荷モニタリングは、総消費電力を個別の機器使用量に分解することを目的としている。
深層学習はNILMを進歩させたが、ラベル付きデータへの依存、一般化の制限、説明可能性の欠如によって制限されている。
本稿では,テキスト内学習による大規模言語モデルを活用した,最初のプロンプトベースのNILMフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-09T15:35:11Z) - The Synergy of LLMs & RL Unlocks Offline Learning of Generalizable Language-Conditioned Policies with Low-fidelity Data [50.544186914115045]
TEDUOは、シンボリック環境におけるオフライン言語条件のポリシー学習のための、新しいトレーニングパイプラインである。
まず、オフラインデータセットをよりリッチなアノテーションで拡張する自動化ツールとして、次に、一般化可能な命令フォローエージェントとして使用します。
論文 参考訳(メタデータ) (2024-12-09T18:43:56Z) - Adapting LLMs for Efficient, Personalized Information Retrieval: Methods
and Implications [0.7832189413179361]
LLM(Large Language Models)は、人間に似たテキストの理解と生成に優れた言語モデルである。
本稿では,言語モデル(LLM)と情報検索(IR)システムの統合戦略について検討する。
論文 参考訳(メタデータ) (2023-11-21T02:01:01Z) - Effective Large Language Model Adaptation for Improved Grounding and Citation Generation [48.07830615309543]
本稿では,検索した文の応答を基底にして,引用を提供することにより,大規模言語モデル(LLM)の改善に焦点を当てる。
我々は、全体論的観点から基盤を改善する新しいフレームワーク AGREE を提案する。
我々のフレームワークは, LLMを調整し, その要求を自己評価し, 検索した文書に正確な引用を提供する。
論文 参考訳(メタデータ) (2023-11-16T03:22:25Z) - Enabling Language Models to Implicitly Learn Self-Improvement [49.16868302881804]
大規模言語モデル(LLM)は、オープンエンドテキスト生成タスクにおいて顕著な機能を示した。
我々は、人間の嗜好データから改善目標を暗黙的に学習するImPlicit Self-ImprovemenT(PIT)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-02T04:29:40Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。