論文の概要: ReInform: Selecting paths with reinforcement learning for contextualized
link prediction
- arxiv url: http://arxiv.org/abs/2211.10688v1
- Date: Sat, 19 Nov 2022 13:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 17:32:50.649244
- Title: ReInform: Selecting paths with reinforcement learning for contextualized
link prediction
- Title(参考訳): reinform:コンテキスト化リンク予測のための強化学習による経路選択
- Authors: Marina Speranskaya, Sameh Methias, Benjamin Roth
- Abstract要約: 本稿では、強化学習を用いて、トランスフォーマーに基づく文脈化リンク予測モデルについて報告する。
WN18RRとFB15k-237の実験では、コンテキスト化されたリンク予測モデルがRLベースの回答探索より一貫して優れていることが示されている。
- 参考スコア(独自算出の注目度): 3.454537413673216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to use reinforcement learning to inform transformer-based
contextualized link prediction models by providing paths that are most useful
for predicting the correct answer. This is in contrast to previous approaches,
that either used reinforcement learning (RL) to directly search for the answer,
or based their prediction on limited or randomly selected context. Our
experiments on WN18RR and FB15k-237 show that contextualized link prediction
models consistently outperform RL-based answer search, and that additional
improvements (of up to 13.5\% MRR) can be gained by combining RL with a link
prediction model.
- Abstract(参考訳): そこで本研究では,正答率の予測に最も有用なパスを提供することにより,トランスフォーマティブに基づくコンテキスト化リンク予測モデルに強化学習を適用することを提案する。
従来の手法とは対照的に、強化学習(RL)を用いて回答を直接検索するか、あるいは限定的あるいはランダムに選択された文脈に基づいて予測する。
WN18RR と FB15k-237 に関する実験により、文脈化されたリンク予測モデルは、RL ベースの回答探索を一貫して上回り、リンク予測モデルと RL を組み合わせることで、最大 13.5 % MRR のさらなる改善が得られることを示した。
関連論文リスト
- Improving Reinforcement Learning from Human Feedback with Efficient
Reward Model Ensemble [71.44669705576263]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、大きな言語モデルと人間の価値を整合させる手法として広く採用されている。
しかし、RLHFは限られた量の人間の嗜好データで訓練された報酬モデルに依存している。
報奨モデルによりより正確な予測が可能となる報奨アンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-01-30T00:17:37Z) - Exploring Prompt-Based Methods for Zero-Shot Hypernym Prediction with
Large Language Models [0.0]
本稿では,大言語モデル(LLM)を用いたハイパーネミー予測に対するゼロショットアプローチについて検討する。
実験は、言語モデルプロンプトの有効性と古典パターンとの強い相関を示す。
また,コハイポニム予測のプロンプトや,追加情報によるプロンプトの増強によるハイポニミー予測の改善についても検討する。
論文 参考訳(メタデータ) (2024-01-09T12:13:55Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Debiased Fine-Tuning for Vision-language Models by Prompt Regularization [50.41984119504716]
本稿では,Prompt Regularization(ProReg)と呼ばれる下流タスクにおける大規模視覚事前訓練モデルの微調整のための新しいパラダイムを提案する。
ProRegは、事前訓練されたモデルに微調整を正規化するよう促すことで予測を使用する。
本稿では,従来の微調整,ゼロショットプロンプト,プロンプトチューニング,その他の最先端手法と比較して,ProRegの性能が一貫して高いことを示す。
論文 参考訳(メタデータ) (2023-01-29T11:53:55Z) - Multi-Aspect Explainable Inductive Relation Prediction by Sentence
Transformer [60.75757851637566]
本稿では,モデル学習に先立って信頼できない経路をフィルタリングし,モデル性能を高めるための関係経路カバレッジと関係経路信頼の概念を紹介する。
知識グラフにおける帰納関係を予測するために,知識推論文変換器(KRST)を提案する。
論文 参考訳(メタデータ) (2023-01-04T15:33:49Z) - Bi-Link: Bridging Inductive Link Predictions from Text via Contrastive
Learning of Transformers and Prompts [2.9972063833424216]
本稿では,確率論的構文をリンク予測に役立てた比較学習フレームワークBi-Linkを提案する。
BERTの文法的知識を用いて,大規模知識グラフに一般化する学習的構文パターンに従って,関係性プロンプトを効率的に探索する。
我々の実験では、Bi-Linkはリンク予測データセットの最近のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-10-26T04:31:07Z) - SAFRAN: An interpretable, rule-based link prediction method
outperforming embedding models [5.52834593453565]
SAFRANは、非冗長ノイズORと呼ばれる新しいアグリゲーションアプローチを用いて、アグリゲーション前に冗長なルールを検出し、クラスタ化する。
SAFRANは、確立された汎用ベンチマーク FB15K-237, WN18RR, YAGO3-10 上で、完全に解釈可能なリンク予測のための新しい最先端の結果を得る。
これはFB15K-237とWN18RR上の複数の確立された埋め込みベースのアルゴリズムよりも優れており、YAGO3-10上のルールベースのアルゴリズムと埋め込みベースのアルゴリズムのギャップを狭める。
論文 参考訳(メタデータ) (2021-09-16T14:18:29Z) - Generalized Relation Learning with Semantic Correlation Awareness for
Link Prediction [29.23338194883254]
本稿では,上記の2つの問題に対処する汎用関係学習フレームワークを提案する。
grlを用いた訓練により、ベクトル空間における意味的類似関係の密接性と類似関係の識別性が向上する。
論文 参考訳(メタデータ) (2020-12-22T12:22:03Z) - Value-driven Hindsight Modelling [68.658900923595]
値推定は強化学習(RL)パラダイムの重要な構成要素である。
モデル学習は、観測系列に存在する豊富な遷移構造を利用することができるが、このアプローチは通常、報酬関数に敏感ではない。
この2つの極点の間に位置するRLにおける表現学習のアプローチを開発する。
これにより、タスクに直接関連し、値関数の学習を加速できる、抽出可能な予測ターゲットが提供される。
論文 参考訳(メタデータ) (2020-02-19T18:10:20Z) - Nested-Wasserstein Self-Imitation Learning for Sequence Generation [158.19606942252284]
分布意味マッチングのためのネスト・ワッサーシュタイン距離の概念を提案する。
ネストされたワッサーシュタインの自己想像学習フレームワークを開発し、歴史ある高次列を利用するようモデルに奨励する。
論文 参考訳(メタデータ) (2020-01-20T02:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。