論文の概要: Learning to Construct Knowledge through Sparse Reference Selection with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2509.05874v1
- Date: Sun, 07 Sep 2025 00:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.747718
- Title: Learning to Construct Knowledge through Sparse Reference Selection with Reinforcement Learning
- Title(参考訳): 強化学習によるスパース参照選択による知識構築の学習
- Authors: Shao-An Yin,
- Abstract要約: スパース参照選択のためのDeep Reinforcement Learningフレームワークを提案する。
人間と機械の両方が、部分的な情報から知識を効果的に構築できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid expansion of scientific literature makes it increasingly difficult to acquire new knowledge, particularly in specialized domains where reasoning is complex, full-text access is restricted, and target references are sparse among a large set of candidates. We present a Deep Reinforcement Learning framework for sparse reference selection that emulates human knowledge construction, prioritizing which papers to read under limited time and cost. Evaluated on drug--gene relation discovery with access restricted to titles and abstracts, our approach demonstrates that both humans and machines can construct knowledge effectively from partial information.
- Abstract(参考訳): 科学文献の急速な拡大は、特に推論が複雑であり、フルテキストアクセスが制限され、ターゲット参照が多数の候補の間で疎結合である専門分野において、新たな知識の獲得をますます困難にしている。
本稿では,人間の知識構築をエミュレートしたスパース参照選択のためのDeep Reinforcement Learningフレームワークを提案する。
薬物-遺伝子関係の発見をタイトルや抽象概念に限定して評価し,人間と機械の両方が部分的な情報から知識を効果的に構築できることを実証した。
関連論文リスト
- Fine-tuning and Prompt Engineering with Cognitive Knowledge Graphs for Scholarly Knowledge Organization [0.14999444543328289]
本研究は,大規模言語モデル(LLM)を用いた構造化学術知識の効果的伝達に焦点をあてる。
LLMは学術論文を分類し、その貢献を構造化され、同等の方法で記述する。
我々の方法論は、LLMの知識を活用し、CKGから得られた領域の専門家が検証した学術データと補完することである。
論文 参考訳(メタデータ) (2024-09-10T11:31:02Z) - Infusing Knowledge into Large Language Models with Contextual Prompts [5.865016596356753]
入力テキスト中の文脈からプロンプトを生成することにより,知識注入のためのシンプルだが一般化可能なアプローチを提案する。
本実験は, 微調整LDMを用いて評価する手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-03T11:19:26Z) - Fine-grained Stateful Knowledge Exploration: Effective and Efficient Graph Retrieval with Large Language Models [19.049828741139425]
大きな言語モデル(LLM)は印象的な能力を示していますが、その知識を更新することは大きな課題です。
既存のほとんどの手法では、知識グラフから関連する知識を漸進的に取り出すために、問題全体を目的として扱うパラダイムを使用している。
本研究では,細粒度ステートフル知識探索のための新しいパラダイムであるFiSKEを提案する。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。