論文の概要: Science Out of Its Ivory Tower: Improving Accessibility with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2410.17088v1
- Date: Tue, 22 Oct 2024 15:14:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:30:55.755100
- Title: Science Out of Its Ivory Tower: Improving Accessibility with Reinforcement Learning
- Title(参考訳): アイボリータワーの科学 : 強化学習によるアクセシビリティ向上
- Authors: Haining Wang, Jason Clark, Hannah McKelvey, Leila Sterman, Zheng Gao, Zuoyu Tian, Sandra Kübler, Xiaozhong Liu,
- Abstract要約: 言語モデルを微調整して、学術的な抽象語をより理解しやすいバージョンに書き換える強化学習フレームワークを導入する。
我々の最良のモデルは、学者抽象学の可読性レベルを、およそ6つの米国学級レベルに調整する。
我々は,学術研究と一般大衆のギャップを埋めるための一歩として,この研究を構想する。
- 参考スコア(独自算出の注目度): 15.03718014789799
- License:
- Abstract: A vast amount of scholarly work is published daily, yet much of it remains inaccessible to the general public due to dense jargon and complex language. To address this challenge in science communication, we introduce a reinforcement learning framework that fine-tunes a language model to rewrite scholarly abstracts into more comprehensible versions. Guided by a carefully balanced combination of word- and sentence-level accessibility rewards, our language model effectively substitutes technical terms with more accessible alternatives, a task which models supervised fine-tuned or guided by conventional readability measures struggle to accomplish. Our best model adjusts the readability level of scholarly abstracts by approximately six U.S. grade levels -- in other words, from a postgraduate to a high school level. This translates to roughly a 90% relative boost over the supervised fine-tuning baseline, all while maintaining factual accuracy and high-quality language. An in-depth analysis of our approach shows that balanced rewards lead to systematic modifications in the base model, likely contributing to smoother optimization and superior performance. We envision this work as a step toward bridging the gap between scholarly research and the general public, particularly younger readers and those without a college degree.
- Abstract(参考訳): 膨大な量の学術的著作が毎日出版されているが、その大部分が密集したジャーゴンと複雑な言語のために一般には公開されていない。
科学コミュニケーションにおけるこの課題に対処するために,言語モデルを微調整し,学術的抽象化をより理解しやすいバージョンに書き換える強化学習フレームワークを導入する。
単語と文レベルのアクセシビリティ報酬のバランスの取れた組み合わせにより、我々の言語モデルは、技術的用語をよりアクセスしやすい代替語に置き換える。
我々の最良のモデルは、学者の可読性レベルを、約6つの米国学年レベル(つまり、大学院から高校レベル)に調整します。
これは、教師付き微調整ベースラインに対するおよそ90%の相対的な増加であり、事実の正確さと高品質な言語を維持している。
提案手法の詳細な分析により,バランスの取れた報酬がベースモデルの体系的な変更につながり,よりスムーズな最適化と優れた性能に寄与する可能性が示唆された。
本研究は、学術研究と一般大衆のギャップを埋める第一歩として、特に若手読者と大学の学位を持たない研究者とのギャップを埋めることを目的としている。
関連論文リスト
- Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Simplifying Scholarly Abstracts for Accessible Digital Libraries [7.744153396152758]
デジタル図書館は膨大な量の科学文献を収集している。
これらの書物は、しばしばジャーゴンで飾られ、一般大衆よりもドメインの専門家に仕立てられている。
学術的な抽象語をより理解しやすいバージョンに書き換えるために,言語モデルを微調整することを提案する。
論文 参考訳(メタデータ) (2024-08-07T16:55:00Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Vision Superalignment: Weak-to-Strong Generalization for Vision
Foundation Models [55.919653720979824]
本稿では、より弱いモデルを用いてより強いモデルを監督する弱強一般化の概念に焦点を当てる。
弱強監督のための新規かつ適応的に調整可能な損失関数を提案する。
提案手法は, 強い一般化によって設定された性能ベンチマークを超えるだけでなく, データセット全体を用いた微調整の強いモデルの結果を上回る。
論文 参考訳(メタデータ) (2024-02-06T06:30:34Z) - On the application of Large Language Models for language teaching and
assessment technology [18.735612275207853]
我々は,AIによる言語教育とアセスメントシステムに大規模言語モデルを導入する可能性を検討する。
より大きな言語モデルは、テキスト生成における以前のモデルよりも改善されていることがわかった。
自動階調と文法的誤り訂正において、よく知られたベンチマークで進捗が確認されたタスクについては、初期の調査では、彼ら自身の大きな言語モデルが最先端の結果を改善していないことが示されている。
論文 参考訳(メタデータ) (2023-07-17T11:12:56Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Morphologically Aware Word-Level Translation [82.59379608647147]
本稿では,バイリンガルレキシコン誘導のための新しい形態素認識確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かしている。
論文 参考訳(メタデータ) (2020-11-15T17:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。