論文の概要: AI-Reporter: A Path to a New Genre of Scientific Communication
- arxiv url: http://arxiv.org/abs/2507.05903v1
- Date: Tue, 08 Jul 2025 11:41:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.951984
- Title: AI-Reporter: A Path to a New Genre of Scientific Communication
- Title(参考訳): AI-Reporter:科学コミュニケーションの新世代への道
- Authors: Gerd Graßhoff,
- Abstract要約: AI-Reporterは、科学出版の実践におけるパラダイムシフトを表している。
技術革新が一時的なプレゼンテーションと恒久的な科学的文書とのギャップをいかに埋めるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The AI-Reporter represents a paradigmatic shift in scientific publication practice. This document demonstrates through a concrete case study how our system transforms academic presentations into publication-ready chapters -- in less than three minutes. Using Arno Simons' lecture on Large Language Models from the ``Large Language Models for the History, Philosophy, and Sociology of Science'' workshop (NEPI) as an example, we show how technological innovation bridges the gap between ephemeral presentation and permanent scientific documentation.
- Abstract(参考訳): AI-Reporterは、科学出版の実践におけるパラダイムシフトを表している。
この文書は、我々のシステムが学術的なプレゼンテーションを出版可能な章に3分以内で変換する方法の具体的なケーススタディを通して実証します。
Arno Simons氏の講演“Large Language Models for the History, Philosophy, and Sociology of Science”(NEPI)を例に挙げて,技術革新が短命なプレゼンテーションと永続的な科学的ドキュメントのギャップをいかに埋めるかを示す。
関連論文リスト
- Towards understanding evolution of science through language model series [0.9831489366502298]
AnnualBERTは、科学的テキストの時間的進化を捉えるために設計された一連の言語モデルである。
2008年まで発行された170万のarXiv論文の全文をスクラッチから事前訓練したRoBERTaモデルと、年間ベースでarXiv論文の漸進的に訓練されたモデルのコレクションで構成されている。
論文 参考訳(メタデータ) (2024-09-15T07:15:05Z) - What We Talk About When We Talk About LMs: Implicit Paradigm Shifts and the Ship of Language Models [11.415298220164818]
言語モデル(LM)という用語は、関心のあるモデルの時間固有のコレクションとして、常に再発明されている。
本稿では,この「textitShip of Language Models$ problem」について考察する。
論文 参考訳(メタデータ) (2024-07-02T03:45:55Z) - Large Language Models for Scientific Information Extraction: An
Empirical Study for Virology [0.0]
談話に基づく学術コミュニケーションにおける構造的・意味的内容表現の利用を擁護する。
ウィキペディアのインフォボックスや構造化されたAmazon製品記述といったツールにヒントを得て、構造化された学術貢献要約を生成するための自動アプローチを開発しました。
以上の結果から,FLAN-T5のパラメータは現状のGPT-davinciよりも1000倍少ないことが示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:04:55Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z) - MIReAD: Simple Method for Learning High-quality Representations from
Scientific Documents [77.34726150561087]
論文の高品質な表現を学習する簡単な方法であるMIREADを提案する。
私たちは、2000以上のジャーナルクラスで50万以上のPubMedとarXivの抽象クラスでMIREADをトレーニングします。
論文 参考訳(メタデータ) (2023-05-07T03:29:55Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。