論文の概要: Knowledge-aware Zero-Shot Learning: Survey and Perspective
- arxiv url: http://arxiv.org/abs/2103.00070v1
- Date: Fri, 26 Feb 2021 22:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:25:50.449256
- Title: Knowledge-aware Zero-Shot Learning: Survey and Perspective
- Title(参考訳): 知識認識ゼロショット学習:調査と展望
- Authors: Jiaoyan Chen and Yuxia Geng and Zhuo Chen and Ian Horrocks and Jeff Z.
Pan and Huajun Chen
- Abstract要約: ゼロショット学習(ZSL)は、外部知識を用いてトレーニング中に現れたことのないクラスを予測することを目的としている。
外部知識の観点からZSLに向けた文献レビューを紹介します。
さらに,zslや他の機械学習サンプル不足問題への対処における記号的知識の役割を考察し,展望する。
- 参考スコア(独自算出の注目度): 28.811977648094505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) which aims at predicting classes that have never
appeared during the training using external knowledge (a.k.a. side information)
has been widely investigated. In this paper we present a literature review
towards ZSL in the perspective of external knowledge, where we categorize the
external knowledge, review their methods and compare different external
knowledge. With the literature review, we further discuss and outlook the role
of symbolic knowledge in addressing ZSL and other machine learning sample
shortage issues.
- Abstract(参考訳): ゼロショット学習(ZSL: Zero-shot Learning)は、外部知識を用いてトレーニング中に一度も現れないクラスを予測することを目的とした学習である。
側面情報)は広く調査されている。
本稿では,外部知識の観点からのZSLに向けた文献レビューを行い,外部知識を分類し,その手法をレビューし,異なる外部知識を比較する。
文献レビューでは、ZSLや他の機械学習サンプル不足問題に対処する上で、象徴的知識が果たす役割について論じ、概観する。
関連論文リスト
- Reliability Across Parametric and External Knowledge: Understanding Knowledge Handling in LLMs [11.860265967829884]
大規模言語モデル(LLM)はパラメトリックと外部の知識を活用することで問題解決能力を高める。
本稿では,パラメトリック知識の存在と外部知識の情報性という2つの重要な側面に基づいて,知識処理を解析するための枠組みを提案する。
知識処理シナリオに基づいて構築されたデータによるトレーニングは、知識の統合と活用におけるLLMの信頼性を向上させることを実証する。
論文 参考訳(メタデータ) (2025-02-19T11:49:23Z) - KnowPath: Knowledge-enhanced Reasoning via LLM-generated Inference Paths over Knowledge Graphs [35.63483147113076]
知識グラフのような外部知識の導入は、現実的な回答を提供するLLMの能力を高めることができる。
KnowPathは、内部知識と外部知識の協調によって駆動される、知識に富んだ大規模モデルフレームワークである。
LLMの内部知識に頼り、外部知識グラフの解釈可能な有向部分グラフの探索を導く。
論文 参考訳(メタデータ) (2025-02-17T17:02:01Z) - How Do LLMs Acquire New Knowledge? A Knowledge Circuits Perspective on Continual Pre-Training [92.88889953768455]
大きな言語モデル(LLM)は、どのようにして新しい知識を内部化するかを理解する上で、重大なギャップに直面します。
知識記憶と処理を容易にする計算サブグラフを同定する。
論文 参考訳(メタデータ) (2025-02-16T16:55:43Z) - Internal and External Knowledge Interactive Refinement Framework for Knowledge-Intensive Question Answering [33.89176174108559]
本稿では,IEKRと呼ばれる新たな内部知識と外部知識の対話的改良パラダイムを提案する。
LLM に “Tell me something about” のようなプロンプトを追加するだけで、関連する明示的な知識をレビューして、クエリに挿入して外部検索します。
論文 参考訳(メタデータ) (2024-08-23T10:52:57Z) - Knowledge Mechanisms in Large Language Models: A Survey and Perspective [88.51320482620679]
本稿では,知識利用と進化を含む新しい分類法から知識メカニズムの解析をレビューする。
LLMが学んだ知識、パラメトリック知識の脆弱性の理由、そして解決が難しい潜在的な暗黒知識(仮説)について論じる。
論文 参考訳(メタデータ) (2024-07-22T06:15:59Z) - Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Evaluating the External and Parametric Knowledge Fusion of Large Language Models [72.40026897037814]
我々は、知識融合シナリオをシミュレートするデータ構築と知識注入のための体系的なパイプラインを開発する。
本研究は, LLMにおけるパラメトリック知識の強化が, 知識統合能力を大幅に向上させることを明らかにした。
本研究の目的は,LLM内の外部およびパラメトリック知識の調和を図ることにある。
論文 参考訳(メタデータ) (2024-05-29T11:48:27Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - "Merge Conflicts!" Exploring the Impacts of External Distractors to
Parametric Knowledge Graphs [15.660128743249611]
大規模言語モデル(LLM)は、パラメトリック知識として知られる事前学習中に広範な知識を取得する。
LLMは必然的にユーザとの対話中に外部知識を必要とする。
外部知識がパラメトリック知識に干渉した場合、LCMはどのように反応するのだろうか?
論文 参考訳(メタデータ) (2023-09-15T17:47:59Z) - The Life Cycle of Knowledge in Big Language Models: A Survey [39.955688635216056]
事前訓練された言語モデル(PLM)は、言語モデルによって知識を取得、維持、更新、利用する方法に大きな注目を集めている。
膨大な量の関連する研究にもかかわらず、学習、チューニング、アプリケーションプロセスを通して、言語モデル内で知識がどのように循環するかについての統一された見解はいまだに存在しない。
我々は, PLMにおける知識のライフサイクルを5つの臨界期間に分割し, 構築, 維持, 使用の際の知識の循環について検討することによって, PLMを知識ベースシステムとして再考する。
論文 参考訳(メタデータ) (2023-03-14T03:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。