論文の概要: Simplifying Scholarly Abstracts for Accessible Digital Libraries
- arxiv url: http://arxiv.org/abs/2408.03899v1
- Date: Wed, 7 Aug 2024 16:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 12:35:07.575205
- Title: Simplifying Scholarly Abstracts for Accessible Digital Libraries
- Title(参考訳): アクセシブルデジタルライブラリのためのScholarly Abstractsの簡易化
- Authors: Haining Wang, Jason Clark,
- Abstract要約: デジタル図書館は膨大な量の科学文献を収集している。
これらの書物は、しばしばジャーゴンで飾られ、一般大衆よりもドメインの専門家に仕立てられている。
学術的な抽象語をより理解しやすいバージョンに書き換えるために,言語モデルを微調整することを提案する。
- 参考スコア(独自算出の注目度): 7.744153396152758
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Standing at the forefront of knowledge dissemination, digital libraries curate vast collections of scientific literature. However, these scholarly writings are often laden with jargon and tailored for domain experts rather than the general public. As librarians, we strive to offer services to a diverse audience, including those with lower reading levels. To extend our services beyond mere access, we propose fine-tuning a language model to rewrite scholarly abstracts into more comprehensible versions, thereby making scholarly literature more accessible when requested. We began by introducing a corpus specifically designed for training models to simplify scholarly abstracts. This corpus consists of over three thousand pairs of abstracts and significance statements from diverse disciplines. We then fine-tuned four language models using this corpus. The outputs from the models were subsequently examined both quantitatively for accessibility and semantic coherence, and qualitatively for language quality, faithfulness, and completeness. Our findings show that the resulting models can improve readability by over three grade levels, while maintaining fidelity to the original content. Although commercial state-of-the-art models still hold an edge, our models are much more compact, can be deployed locally in an affordable manner, and alleviate the privacy concerns associated with using commercial models. We envision this work as a step toward more inclusive and accessible libraries, improving our services for young readers and those without a college degree.
- Abstract(参考訳): 知識の普及の最前線に立つデジタル図書館は、科学文献の膨大なコレクションをキュレートしている。
しかし、これらの学問的な著作は一般的には一般にではなく、藩の専門家向けのジャルゴンで飾られることが多い。
図書館員として、読解レベルが低い人を含め、多様な読者にサービスを提供しようとしている。
単なるアクセス以上のサービスを拡張するため、学術的な抽象語をより理解しやすいバージョンに書き換える言語モデルを微調整し、要求された時に学術的な文学がよりアクセスしやすいようにすることを提案する。
私たちはまず、学術的な抽象を単純化するトレーニングモデルに特化したコーパスを導入しました。
このコーパスは、様々な分野から3万組以上の抽象論と重要論証で構成されている。
そして、このコーパスを使用して4つの言語モデルを微調整した。
その後、モデルの出力はアクセシビリティとセマンティックコヒーレンスの両方について定量的に検討され、言語品質、忠実性、完全性については質的に検討された。
結果から,本モデルでは,オリジナルコンテンツへの忠実さを維持しつつ,読みやすさを3段階以上向上できることがわかった。
商用の最先端モデルは依然としてエッジを保っているが、我々のモデルはずっとコンパクトで、手頃な方法でローカルにデプロイでき、商用モデルの使用に伴うプライバシー上の懸念を軽減することができる。
我々は、この取り組みを、より包括的でアクセスしやすい図書館へのステップとして想定し、若手読者や大学の学位を持たない人向けのサービスを改善する。
関連論文リスト
- A Library Perspective on Supervised Text Processing in Digital Libraries: An Investigation in the Biomedical Domain [3.9519587827662397]
本研究では,8つのバイオメディカルベンチマークを用いて,関係抽出とテキスト分類に焦点を当てた。
精度とアプリケーションコストのトレードオフを検討し、遠隔監視とChatGPT、LLama、Olmoといった大規模言語モデルを通じてデータ生成のトレーニングを行い、最終パイプラインの設計方法について論じる。
論文 参考訳(メタデータ) (2024-11-06T07:54:10Z) - A Bayesian Approach to Harnessing the Power of LLMs in Authorship Attribution [57.309390098903]
著者の属性は、文書の起源または著者を特定することを目的としている。
大きな言語モデル(LLM)とその深い推論能力と長距離テキストアソシエーションを維持する能力は、有望な代替手段を提供する。
IMDbおよびブログデータセットを用いた結果, 著者10名を対象に, 著者1名に対して, 85%の精度が得られた。
論文 参考訳(メタデータ) (2024-10-29T04:14:23Z) - Science Out of Its Ivory Tower: Improving Accessibility with Reinforcement Learning [15.03718014789799]
言語モデルを微調整して、学術的な抽象語をより理解しやすいバージョンに書き換える強化学習フレームワークを導入する。
我々の最良のモデルは、学者抽象学の可読性レベルを、およそ6つの米国学級レベルに調整する。
我々は,学術研究と一般大衆のギャップを埋めるための一歩として,この研究を構想する。
論文 参考訳(メタデータ) (2024-10-22T15:14:54Z) - Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Is A Picture Worth A Thousand Words? Delving Into Spatial Reasoning for Vision Language Models [37.44286562901589]
本研究では,空間推論の多様な側面をカバーする新しいベンチマークであるSpatialEvalを提案する。
我々は、競合する言語と視覚言語モデルを総合的に評価する。
文献で見過ごされてきたいくつかの反直感的な洞察が明らかとなった。
論文 参考訳(メタデータ) (2024-06-21T03:53:37Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Dolma: an Open Corpus of Three Trillion Tokens for Language Model Pretraining Research [139.69207791947738]
ドルマ (Dolma) は、ウェブコンテンツ、科学論文、コード、パブリックドメインの書籍、ソーシャルメディア、百科事典の素材を多用した3トリルの英語コーパスである。
我々はDolmaの設計原則、その構築の詳細、内容の要約を含む、Dolmaを文書化します。
我々は、重要なデータキュレーションの実践について学んだことを共有するために、Dolmaの中間状態の分析と実験結果を示す。
論文 参考訳(メタデータ) (2024-01-31T20:29:50Z) - Less is More: A Closer Look at Semantic-based Few-Shot Learning [11.724194320966959]
Few-shot Learningは、利用可能な画像の数が非常に限られている新しいカテゴリを学習し、区別することを目的としている。
本稿では,テキスト情報と言語モデルを活用することを目的とした,数ショットの学習タスクのための,シンプルだが効果的なフレームワークを提案する。
広範に使われている4つのショットデータセットで実施した実験は、我々の単純なフレームワークが印象的な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-10T08:56:02Z) - AbsPyramid: Benchmarking the Abstraction Ability of Language Models with a Unified Entailment Graph [62.685920585838616]
抽象能力は人間の知性において必須であり、言語モデルでは未探索のままである。
本稿では、抽象知識の221Kテキスト記述を統一したエンテーメントグラフであるAbsPyramidを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:11:23Z) - DesCo: Learning Object Recognition with Rich Language Descriptions [93.8177229428617]
視覚言語アプローチの最近の発展は、言語指導から視覚認識モデルを学習するパラダイムシフトを引き起こしている。
本稿では,リッチ言語記述を用いたオブジェクト認識モデル学習のための記述条件付き(DesCo)パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-24T21:05:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。