論文の概要: UM_FHS at the CLEF 2025 SimpleText Track: Comparing No-Context and Fine-Tune Approaches for GPT-4.1 Models in Sentence and Document-Level Text Simplification
- arxiv url: http://arxiv.org/abs/2512.16541v1
- Date: Thu, 18 Dec 2025 13:50:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.083188
- Title: UM_FHS at the CLEF 2025 SimpleText Track: Comparing No-Context and Fine-Tune Approaches for GPT-4.1 Models in Sentence and Document-Level Text Simplification
- Title(参考訳): CLEF 2025 SimpleText Track における UM_FHS: GPT-4.1 モデルにおける非文脈的および微調整的アプローチの比較と文書レベルテキストの簡略化
- Authors: Primoz Kocbek, Gregor Stiglic,
- Abstract要約: 本稿では,CLEF 2025 SimpleTextトラックタスク1に提案する。
この手法はOpenAIのGPt-4.1、GPt-4.1mini、GPt-4.1-nanoモデルに重点を置いている。
2つの異なるアプローチが比較された: プロンプトエンジニアリングに依存するノンコンテキスト法とモデル間の微調整(FT)法である。
- 参考スコア(独自算出の注目度): 1.6841042348023016
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work describes our submission to the CLEF 2025 SimpleText track Task 1, addressing both sentenceand document-level simplification of scientific texts. The methodology centered on using the gpt-4.1, gpt-4.1mini, and gpt-4.1-nano models from OpenAI. Two distinct approaches were compared: a no-context method relying on prompt engineering and a fine-tuned (FT) method across models. The gpt-4.1-mini model with no-context demonstrated robust performance at both levels of simplification, while the fine-tuned models showed mixed results, highlighting the complexities of simplifying text at different granularities, where gpt-4.1-nano-ft performance stands out at document-level simplification in one case.
- Abstract(参考訳): 本稿では,CLEF 2025 SimpleTextトラックタスク1への提案について述べる。
この手法はOpenAIのgpt-4.1、gpt-4.1mini、gpt-4.1-nanoモデルに重点を置いている。
2つの異なるアプローチが比較された: プロンプトエンジニアリングに依存するノンコンテキスト法とモデル間の微調整(FT)法である。
非コンテキストのgpt-4.1-miniモデルは、両方のレベルの単純化で堅牢な性能を示し、微調整されたモデルでは、異なる粒度のテキストを単純化する複雑さが強調され、gpt-4.1-nano-ftのパフォーマンスは文書レベルの単純化で顕著である。
関連論文リスト
- Sarang at DEFACTIFY 4.0: Detecting AI-Generated Text Using Noised Data and an Ensemble of DeBERTa Models [0.0]
本稿では,AI生成テキストの検出に有効な手法を提案する。
Defactify 4.0共有タスクのために、マルチモーダルな事実チェックとヘイトスピーチ検出に関する第4ワークショップで開発された。
私たちのチーム(Sarang)は、それぞれ1.0点と0.9531点のF1スコアで、両方のタスクで1位を獲得しました。
論文 参考訳(メタデータ) (2025-02-24T05:32:00Z) - UM_FHS at TREC 2024 PLABA: Exploration of Fine-tuning and AI agent approach for plain language adaptations of biomedical text [3.223303935767146]
TREC 2024 PLABA トラックへの投稿は,K8 レベルの学生 (13~14歳) を対象に, バイオメディカル・抽象化の簡易化を目的としている。
我々は,OpenAIのGPt-4oとGPt-4o-miniモデルを用いて,ベースラインプロンプトエンジニアリング,2AIエージェントアプローチ,微調整という3つのアプローチを検証した。
その結果、GPt-4o-miniモデルを用いた2エージェントアプローチとベースラインプロンプトエンジニアリングは質的性能が優れ、微調整モデルは精度と完全性に優れるが、より単純ではないことがわかった。
論文 参考訳(メタデータ) (2025-02-19T23:07:16Z) - Discourse Features Enhance Detection of Document-Level Machine-Generated Content [53.41994768824785]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
既存のMGC検出器は、しばしば表面レベルの情報のみに焦点を当て、暗黙的かつ構造的な特徴を見渡す。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [51.87391234815163]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - TART: Improved Few-shot Text Classification Using Task-Adaptive
Reference Transformation [23.02986307143718]
本稿では,タスク適応参照変換(TART)ネットワークを提案する。
我々のモデルは、20のNewsgroupsデータセット上の1ショットと5ショットの分類において、最先端の手法を7.4%、そして5.4%上回る。
論文 参考訳(メタデータ) (2023-06-03T18:38:02Z) - Exploiting Summarization Data to Help Text Simplification [50.0624778757462]
テキスト要約とテキスト単純化の類似性を解析し,要約データを利用して単純化を行った。
我々はこれらのペアをSum4Simp (S4S) と命名し,S4Sが高品質であることを示す人間評価を行った。
論文 参考訳(メタデータ) (2023-02-14T15:32:04Z) - LENS: A Learnable Evaluation Metric for Text Simplification [17.48383068498169]
テキスト単純化のための学習可能な評価指標であるLENSを提案する。
また、ランクとレートについても紹介します。これは、リストワイドで複数のモデルから単純化を評価する人間の評価フレームワークです。
論文 参考訳(メタデータ) (2022-12-19T18:56:52Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。