論文の概要: THM@SimpleText 2025 -- Task 1.1: Revisiting Text Simplification based on Complex Terms for Non-Experts
- arxiv url: http://arxiv.org/abs/2507.04414v1
- Date: Sun, 06 Jul 2025 15:05:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.170781
- Title: THM@SimpleText 2025 -- Task 1.1: Revisiting Text Simplification based on Complex Terms for Non-Experts
- Title(参考訳): THM@SimpleText 2025 -- Task 1.1:complex Terms for Non-Expertsに基づくテキストの単純化の再検討
- Authors: Nico Hofmann, Julian Dauenhauer, Nils Ole Dietzler, Idehen Daniel Idahor, Christin Katharina Kreutz,
- Abstract要約: SimpleText CLEF Labは、科学テキストの単純化の問題に焦点を当てている。
この課題に対処するために,非専門読者を対象に,小さなGeminiとOpenAIの大規模言語モデルを用いて文中の複素項の同定を行う。
- 参考スコア(独自算出の注目度): 0.23301643766310368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific text is complex as it contains technical terms by definition. Simplifying such text for non-domain experts enhances accessibility of innovation and information. Politicians could be enabled to understand new findings on topics on which they intend to pass a law, or family members of seriously ill patients could read about clinical trials. The SimpleText CLEF Lab focuses on exactly this problem of simplification of scientific text. Task 1.1 of the 2025 edition specifically handles the simplification of complex sentences, so very short texts with little context. To tackle this task we investigate the identification of complex terms in sentences which are rephrased using small Gemini and OpenAI large language models for non-expert readers.
- Abstract(参考訳): 科学的テキストは、定義による技術的用語を含むため複雑である。
非ドメインの専門家のためにそのようなテキストを単純化すれば、イノベーションや情報のアクセシビリティが向上する。
政治家は、法律を通そうとするトピックに関する新たな発見を理解することができるし、重篤な患者の家族も臨床試験について読むことができる。
SimpleText CLEF Labは、科学的テキストの単純化という、まさにこの問題に焦点を当てている。
2025年版のタスク1.1は、複雑な文の単純化に特化しており、文脈がほとんどない非常に短いテキストである。
この課題に対処するために,非専門読者を対象に,小さなGeminiとOpenAIの大規模言語モデルを用いて文中の複素項の同定を行う。
関連論文リスト
- Evaluating LLMs for Targeted Concept Simplification for Domain-Specific Texts [53.421616210871704]
コンテクストの欠如と難解な概念に対する不慣れさは、大人の読者がドメイン固有のテキストに難渋する大きな理由である。
テキストの書き直しを簡略化し,不慣れな概念を含むテキストの理解を支援する「目標概念の簡略化」を提案する。
本研究は,オープンソースおよび商用LLMの性能と,この課題に対する簡単な辞書ベースラインのベンチマークを行う。
論文 参考訳(メタデータ) (2024-10-28T05:56:51Z) - ARTIST: ARTificial Intelligence for Simplified Text [5.095775294664102]
テキスト単純化は、テキストの言語的複雑さを減らすことを目的とした、自然言語処理の重要なタスクである。
生成人工知能(AI)の最近の進歩により、語彙レベルと構文レベルの両方で自動テキストの簡略化が可能になった。
論文 参考訳(メタデータ) (2023-08-25T16:06:06Z) - Text Simplification of Scientific Texts for Non-Expert Readers [3.4761212729163318]
科学的な抽象化の単純化は、非専門家がコア情報にアクセスするのに役立つ。
これは、例えば、新しい治療法について読んでいるがん患者に特に関係している。
論文 参考訳(メタデータ) (2023-07-07T13:05:11Z) - Multilingual Simplification of Medical Texts [49.469685530201716]
4つの言語で医療領域のための文章整列型多言語テキスト単純化データセットであるMultiCochraneを紹介する。
これらの言語にまたがる微調整およびゼロショットモデルの評価を行い,人間による評価と分析を行った。
モデルは、実行可能な単純化されたテキストを生成することができるが、このデータセットが扱う可能性のある、卓越した課題を特定する。
論文 参考訳(メタデータ) (2023-05-21T18:25:07Z) - Elaborative Simplification as Implicit Questions Under Discussion [51.17933943734872]
本稿では,QUD フレームワークのレンズによる共同作業の簡略化について考察する。
本研究は,QUDを明示的にモデル化することで,作業の単純化と,作業内容と作業内容の関連性について,重要な理解が得られていることを示す。
論文 参考訳(メタデータ) (2023-05-17T17:26:16Z) - Syntactic Complexity Identification, Measurement, and Reduction Through
Controlled Syntactic Simplification [0.0]
本稿では,複合文と複合文を簡易文の集合に分割・言い換える,古典的な構文的依存性に基づく手法を提案する。
また,文の構文的複雑さを同定し,測定するアルゴリズムも導入した。
この研究は、WSDM-2023 Conferenceにおいて、Learning with Knowledge Graphs (IWLKG) に関する国際ワークショップで受け入れられ、発表された。
論文 参考訳(メタデータ) (2023-04-16T13:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。