論文の概要: Automated Feedback Loops to Protect Text Simplification with Generative AI from Information Loss
- arxiv url: http://arxiv.org/abs/2505.16172v1
- Date: Thu, 22 May 2025 03:19:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.008057
- Title: Automated Feedback Loops to Protect Text Simplification with Generative AI from Information Loss
- Title(参考訳): 情報損失から生成AIでテキストの単純化を保護するフィードバックループの自動生成
- Authors: Abhay Kumara Sri Krishna Nandiraju, Gondy Leroy, David Kauchak, Arif Ahmed,
- Abstract要約: 我々は、より理解を深めるために、健康情報を簡単にすることに注力する。
本研究では、生成AIを比較し、簡易テキストにおける欠落情報を検出し、その重要性を評価し、欠落情報でテキストを固定する。
- 参考スコア(独自算出の注目度): 1.2882480196517305
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding health information is essential in achieving and maintaining a healthy life. We focus on simplifying health information for better understanding. With the availability of generative AI, the simplification process has become efficient and of reasonable quality, however, the algorithms remove information that may be crucial for comprehension. In this study, we compare generative AI to detect missing information in simplified text, evaluate its importance, and fix the text with the missing information. We collected 50 health information texts and simplified them using gpt-4-0613. We compare five approaches to identify missing elements and regenerate the text by inserting the missing elements. These five approaches involve adding missing entities and missing words in various ways: 1) adding all the missing entities, 2) adding all missing words, 3) adding the top-3 entities ranked by gpt-4-0613, and 4, 5) serving as controls for comparison, adding randomly chosen entities. We use cosine similarity and ROUGE scores to evaluate the semantic similarity and content overlap between the original, simplified, and reconstructed simplified text. We do this for both summaries and full text. Overall, we find that adding missing entities improves the text. Adding all the missing entities resulted in better text regeneration, which was better than adding the top-ranked entities or words, or random words. Current tools can identify these entities, but are not valuable in ranking them.
- Abstract(参考訳): 健康情報の理解は、健康な生活の達成と維持に不可欠である。
我々は、より理解を深めるために、健康情報を簡単にすることに注力する。
生成AIが利用可能になると、単純化プロセスは効率的になり、合理的な品質を持つようになったが、アルゴリズムは理解に不可欠な情報を除去する。
本研究では、生成AIを比較し、簡易テキストにおける欠落情報を検出し、その重要性を評価し、欠落情報でテキストを固定する。
我々は50の健康情報テキストを収集し,gpt-4-0613を用いてそれらを単純化した。
我々は、欠落した要素を識別する5つのアプローチを比較し、欠落した要素を挿入してテキストを再生する。
これら5つのアプローチは、欠落した実体と欠落した単語を様々な方法で追加する。
1) 欠落したすべてのエンティティを追加する。
2) 全ての欠落した単語を追加する。
3) gpt-4-0613と4,5でランク付けされた上位3のエンティティを比較のためのコントロールとして追加し、ランダムに選択されたエンティティを追加する。
我々はコサイン類似度とROUGEスコアを用いて、原文、簡略化、再構成された簡易テキスト間の意味的類似度と内容の重なりについて評価する。
要約と全文の両方でこれを行います。
全体として、欠落したエンティティを追加することで、テキストが改善される。
すべての欠落したエンティティを追加することで、テキストのリジェネレーションが向上し、トップランクのエンティティや単語やランダムな単語を追加するよりも優れていました。
現在のツールはこれらのエンティティを識別できるが、ランキングには価値がない。
関連論文リスト
- SiTSE: Sinhala Text Simplification Dataset and Evaluation [1.7806363928929385]
本稿では,Sinhala言語に対する人文レベルのテキスト単純化データセットを提案する。
我々は,テキスト単純化タスクを多言語言語モデルmT5とmBARTのゼロショットおよびゼロリソースシーケンス・ツー・シーケンス(seq-seq)タスクとしてモデル化する。
分析の結果,ITTL は以前提案したゼロリソース法よりもテキストの単純化に優れていた。
論文 参考訳(メタデータ) (2024-12-02T09:08:06Z) - Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation [67.89838237013078]
名前付きエンティティ認識(NER)モデルは、しばしばノイズの多い入力に悩まされる。
ノイズの多いテキストとそのNERラベルのみを利用できる、より現実的な設定を提案する。
我々は、推論中にテキストを取得することなく、堅牢なNERを改善するマルチビュートレーニングフレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-26T07:30:41Z) - Medical Text Simplification: Optimizing for Readability with
Unlikelihood Training and Reranked Beam Search Decoding [18.06012822620814]
テキストの単純化は、医学などの専門分野におけるコミュニケーションギャップを埋めるために、AIのますます有用な応用として現れてきた。
顕著な進歩にもかかわらず、医学的単純化の手法は、品質と多様性の低い生成されたテキストをもたらすことがある。
そこで本研究では,より単純な用語を生成するための新たな異義性損失と,シンプルさを最適化する再帰的ビーム探索復号法を提案する。
論文 参考訳(メタデータ) (2023-10-17T12:14:03Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Syntactic Complexity Identification, Measurement, and Reduction Through
Controlled Syntactic Simplification [0.0]
本稿では,複合文と複合文を簡易文の集合に分割・言い換える,古典的な構文的依存性に基づく手法を提案する。
また,文の構文的複雑さを同定し,測定するアルゴリズムも導入した。
この研究は、WSDM-2023 Conferenceにおいて、Learning with Knowledge Graphs (IWLKG) に関する国際ワークショップで受け入れられ、発表された。
論文 参考訳(メタデータ) (2023-04-16T13:13:58Z) - Exploiting Summarization Data to Help Text Simplification [50.0624778757462]
テキスト要約とテキスト単純化の類似性を解析し,要約データを利用して単純化を行った。
我々はこれらのペアをSum4Simp (S4S) と命名し,S4Sが高品質であることを示す人間評価を行った。
論文 参考訳(メタデータ) (2023-02-14T15:32:04Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - Contextualized Rewriting for Text Summarization [10.666547385992935]
グループアライメントを伴うSeq2seq問題として書き換える。
その結果,本手法は非テキスト化書き換えシステムよりも大幅に優れていることがわかった。
論文 参考訳(メタデータ) (2021-01-31T05:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。