論文の概要: Simplifying Scholarly Abstracts for Accessible Digital Libraries
- arxiv url: http://arxiv.org/abs/2408.03899v1
- Date: Wed, 7 Aug 2024 16:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 12:35:07.575205
- Title: Simplifying Scholarly Abstracts for Accessible Digital Libraries
- Title(参考訳): アクセシブルデジタルライブラリのためのScholarly Abstractsの簡易化
- Authors: Haining Wang, Jason Clark,
- Abstract要約: デジタル図書館は膨大な量の科学文献を収集している。
これらの書物は、しばしばジャーゴンで飾られ、一般大衆よりもドメインの専門家に仕立てられている。
学術的な抽象語をより理解しやすいバージョンに書き換えるために,言語モデルを微調整することを提案する。
- 参考スコア(独自算出の注目度): 7.744153396152758
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Standing at the forefront of knowledge dissemination, digital libraries curate vast collections of scientific literature. However, these scholarly writings are often laden with jargon and tailored for domain experts rather than the general public. As librarians, we strive to offer services to a diverse audience, including those with lower reading levels. To extend our services beyond mere access, we propose fine-tuning a language model to rewrite scholarly abstracts into more comprehensible versions, thereby making scholarly literature more accessible when requested. We began by introducing a corpus specifically designed for training models to simplify scholarly abstracts. This corpus consists of over three thousand pairs of abstracts and significance statements from diverse disciplines. We then fine-tuned four language models using this corpus. The outputs from the models were subsequently examined both quantitatively for accessibility and semantic coherence, and qualitatively for language quality, faithfulness, and completeness. Our findings show that the resulting models can improve readability by over three grade levels, while maintaining fidelity to the original content. Although commercial state-of-the-art models still hold an edge, our models are much more compact, can be deployed locally in an affordable manner, and alleviate the privacy concerns associated with using commercial models. We envision this work as a step toward more inclusive and accessible libraries, improving our services for young readers and those without a college degree.
- Abstract(参考訳): 知識の普及の最前線に立つデジタル図書館は、科学文献の膨大なコレクションをキュレートしている。
しかし、これらの学問的な著作は一般的には一般にではなく、藩の専門家向けのジャルゴンで飾られることが多い。
図書館員として、読解レベルが低い人を含め、多様な読者にサービスを提供しようとしている。
単なるアクセス以上のサービスを拡張するため、学術的な抽象語をより理解しやすいバージョンに書き換える言語モデルを微調整し、要求された時に学術的な文学がよりアクセスしやすいようにすることを提案する。
私たちはまず、学術的な抽象を単純化するトレーニングモデルに特化したコーパスを導入しました。
このコーパスは、様々な分野から3万組以上の抽象論と重要論証で構成されている。
そして、このコーパスを使用して4つの言語モデルを微調整した。
その後、モデルの出力はアクセシビリティとセマンティックコヒーレンスの両方について定量的に検討され、言語品質、忠実性、完全性については質的に検討された。
結果から,本モデルでは,オリジナルコンテンツへの忠実さを維持しつつ,読みやすさを3段階以上向上できることがわかった。
商用の最先端モデルは依然としてエッジを保っているが、我々のモデルはずっとコンパクトで、手頃な方法でローカルにデプロイでき、商用モデルの使用に伴うプライバシー上の懸念を軽減することができる。
我々は、この取り組みを、より包括的でアクセスしやすい図書館へのステップとして想定し、若手読者や大学の学位を持たない人向けのサービスを改善する。
関連論文リスト
- Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Is A Picture Worth A Thousand Words? Delving Into Spatial Reasoning for Vision Language Models [26.839159541015597]
空間的推論の様々な側面をカバーする新しいベンチマークを開発する。
文献で見過ごされてきたいくつかの反直感的な洞察が明らかとなった。
我々は,空間知性を改善するためのマルチモーダルモデルの開発について報告する。
論文 参考訳(メタデータ) (2024-06-21T03:53:37Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Dolma: an Open Corpus of Three Trillion Tokens for Language Model Pretraining Research [139.69207791947738]
ドルマ (Dolma) は、ウェブコンテンツ、科学論文、コード、パブリックドメインの書籍、ソーシャルメディア、百科事典の素材を多用した3トリルの英語コーパスである。
我々はDolmaの設計原則、その構築の詳細、内容の要約を含む、Dolmaを文書化します。
我々は、重要なデータキュレーションの実践について学んだことを共有するために、Dolmaの中間状態の分析と実験結果を示す。
論文 参考訳(メタデータ) (2024-01-31T20:29:50Z) - Less is More: A Closer Look at Semantic-based Few-Shot Learning [11.724194320966959]
Few-shot Learningは、利用可能な画像の数が非常に限られている新しいカテゴリを学習し、区別することを目的としている。
本稿では,テキスト情報と言語モデルを活用することを目的とした,数ショットの学習タスクのための,シンプルだが効果的なフレームワークを提案する。
広範に使われている4つのショットデータセットで実施した実験は、我々の単純なフレームワークが印象的な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-10T08:56:02Z) - AbsPyramid: Benchmarking the Abstraction Ability of Language Models with a Unified Entailment Graph [62.685920585838616]
抽象能力は人間の知性において必須であり、言語モデルでは未探索のままである。
本稿では、抽象知識の221Kテキスト記述を統一したエンテーメントグラフであるAbsPyramidを提案する。
論文 参考訳(メタデータ) (2023-11-15T18:11:23Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - DesCo: Learning Object Recognition with Rich Language Descriptions [93.8177229428617]
視覚言語アプローチの最近の発展は、言語指導から視覚認識モデルを学習するパラダイムシフトを引き起こしている。
本稿では,リッチ言語記述を用いたオブジェクト認識モデル学習のための記述条件付き(DesCo)パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-24T21:05:02Z) - LG4AV: Combining Language Models and Graph Neural Networks for Author
Verification [0.11421942894219898]
本稿では,著者検証のための言語モデルとグラフニューラルネットワークを組み合わせたLG4AVを提案する。
トレーニング済みのトランスフォーマーアーキテクチャで利用可能なテキストを直接供給することで、我々のモデルは手作りのスタイル幾何学的特徴を一切必要としない。
我々のモデルは、検証プロセスに関して意味のある著者間の関係から恩恵を受けることができる。
論文 参考訳(メタデータ) (2021-09-03T12:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。