論文の概要: On the Role of Context for Discourse Relation Classification in Scientific Writing
- arxiv url: http://arxiv.org/abs/2510.26354v1
- Date: Thu, 30 Oct 2025 11:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.77203
- Title: On the Role of Context for Discourse Relation Classification in Scientific Writing
- Title(参考訳): 学術著作における談話関係分類における文脈の役割について
- Authors: Stephen Wan, Wei Liu, Michael Strube,
- Abstract要約: 私たちは、AIが生成した科学的主張を支持する証拠を見つけるために、談話レベルの情報を使うことに興味があります。
この目的に向けての最初のステップは、科学的執筆における談話構造を推定する作業を検討することである。
- 参考スコア(独自算出の注目度): 10.147545869756867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing use of generative Artificial Intelligence (AI) methods to support science workflows, we are interested in the use of discourse-level information to find supporting evidence for AI generated scientific claims. A first step towards this objective is to examine the task of inferring discourse structure in scientific writing. In this work, we present a preliminary investigation of pretrained language model (PLM) and Large Language Model (LLM) approaches for Discourse Relation Classification (DRC), focusing on scientific publications, an under-studied genre for this task. We examine how context can help with the DRC task, with our experiments showing that context, as defined by discourse structure, is generally helpful. We also present an analysis of which scientific discourse relation types might benefit most from context.
- Abstract(参考訳): 科学ワークフローをサポートするための生成人工知能(AI)メソッドの利用の増加に伴い、私たちは、AIが生成した科学的な主張を裏付ける証拠を見つけるために、談話レベルの情報を使用することに興味を持っている。
この目的に向けての最初のステップは、科学的執筆における談話構造を推定する作業を検討することである。
本研究では,この課題に対する未研究のジャンルである学術論文を中心に,事前学習型言語モデル (PLM) と大規模言語モデル (LLM) による言論関係分類 (DRC) のアプローチを予備検討する。
我々は,DRCタスクにおいてコンテキストがどのように役立つかを検討するとともに,談話構造によって定義されたコンテキストが一般的に有用であることを示す実験を行った。
また,科学的談話関係型が文脈から最も恩恵を受ける可能性のある分析結果も提示する。
関連論文リスト
- A Hybrid AI Methodology for Generating Ontologies of Research Topics from Scientific Paper Corpora [6.384357773998868]
Sci-OGは研究トピックを生成するための半自動的な方法論である。
本稿では,研究トピックを生成するための半自動設計手法であるSci-OGを提案する。
提案手法は,21,649件の注釈付きセマンティック・トリプルのデータセットを用いて,様々な代替ソリューションに対して評価する。
論文 参考訳(メタデータ) (2025-08-06T08:48:14Z) - Unveiling Global Discourse Structures: Theoretical Analysis and NLP Applications in Argument Mining [0.0]
コヒーレンス(Coherence)は、人間のテキスト理解において重要な役割を担い、高品質なテキストの象徴である。
本稿では,これらのグローバルな談話構造をArgument(ation) Mining(Argument(ation) Mining)と呼ばれるプロペスで検出し,抽出し,表現する方法を提案する。
論文 参考訳(メタデータ) (2025-02-12T13:03:43Z) - Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond [68.47402386668846]
本研究では,テキストアセスメントをステップワイド推論プロセスとしてモデル化するために,Structured Reasoning In Critical Text Assessment (STRICTA)を導入する。
STRICTAは、因果性理論に基づく相互接続推論ステップのグラフに評価を分解する。
約40人のバイオメディカル専門家が20以上の論文について4000以上の推論ステップのデータセットにSTRICTAを適用した。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Emergent Language: A Survey and Taxonomy [9.823821010022932]
この論文は、人工知能における創発的言語に関する181の科学論文の包括的なレビューを提供する。
その目的は、この分野に興味のある研究者や熟練した研究者の参考となることである。
論文 参考訳(メタデータ) (2024-09-04T12:22:05Z) - The Quest for the Right Mediator: Surveying Mechanistic Interpretability Through the Lens of Causal Mediation Analysis [51.046457649151336]
本稿では,因果媒介分析に基づく解釈可能性研究の視点を提案する。
本稿では, 原因単位(メディエーター)の種類に応じて分類された解釈可能性の歴史と現状について述べる。
我々は,各メディエータの長所と短所について論じ,特定の種類のメディエータや検索手法が最適であるかどうかについての洞察を提供する。
論文 参考訳(メタデータ) (2024-08-02T17:51:42Z) - CiteFusion: An Ensemble Framework for Citation Intent Classification Harnessing Dual-Model Binary Couples and SHAP Analyses [1.6695303704829412]
CiteFusionは、SciCiteとACL-ARCという2つのベンチマークデータセット上のマルチクラスCitation Intent Classificationタスクに対処する。
実験の結果、CiteFusionは最先端のパフォーマンスを達成し、Macro-F1スコアはSciCiteで89.60%、ACL-ARCで76.24%であった。
我々は、SciCiteで開発されたCiteFusionモデルを利用して、引用意図を分類するWebベースのアプリケーションをリリースする。
論文 参考訳(メタデータ) (2024-07-18T09:29:33Z) - AHAM: Adapt, Help, Ask, Model -- Harvesting LLMs for literature mining [3.8384235322772864]
本稿では、BERTopicトピックモデリングフレームワークのドメイン固有のテキストbfadaptationをガイドするAHAMの方法論とメトリクスについて述べる。
LLaMa2生成言語モデルを利用することで、ワンショット学習によるトピック定義を生成する。
トピック間の類似度評価には、言語生成および翻訳プロセスからのメトリクスを利用する。
論文 参考訳(メタデータ) (2023-12-25T18:23:03Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - CitationIE: Leveraging the Citation Graph for Scientific Information
Extraction [89.33938657493765]
引用論文と引用論文の参照リンクの引用グラフを使用する。
最先端技術に対するエンド・ツー・エンドの情報抽出の大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-03T03:00:12Z) - Introducing Syntactic Structures into Target Opinion Word Extraction
with Deep Learning [89.64620296557177]
目的語抽出のためのディープラーニングモデルに文の構文構造を組み込むことを提案する。
また,ディープラーニングモデルの性能向上のために,新たな正規化手法を導入する。
提案モデルは,4つのベンチマークデータセット上での最先端性能を広範囲に解析し,達成する。
論文 参考訳(メタデータ) (2020-10-26T07:13:17Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Explaining Relationships Between Scientific Documents [55.23390424044378]
本稿では,2つの学術文書間の関係を自然言語テキストを用いて記述する課題に対処する。
本稿では154K文書から622Kサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2020-02-02T03:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。