論文の概要: Knowledge-aware Zero-Shot Learning: Survey and Perspective
- arxiv url: http://arxiv.org/abs/2103.00070v1
- Date: Fri, 26 Feb 2021 22:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:25:50.449256
- Title: Knowledge-aware Zero-Shot Learning: Survey and Perspective
- Title(参考訳): 知識認識ゼロショット学習:調査と展望
- Authors: Jiaoyan Chen and Yuxia Geng and Zhuo Chen and Ian Horrocks and Jeff Z.
Pan and Huajun Chen
- Abstract要約: ゼロショット学習(ZSL)は、外部知識を用いてトレーニング中に現れたことのないクラスを予測することを目的としている。
外部知識の観点からZSLに向けた文献レビューを紹介します。
さらに,zslや他の機械学習サンプル不足問題への対処における記号的知識の役割を考察し,展望する。
- 参考スコア(独自算出の注目度): 28.811977648094505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot learning (ZSL) which aims at predicting classes that have never
appeared during the training using external knowledge (a.k.a. side information)
has been widely investigated. In this paper we present a literature review
towards ZSL in the perspective of external knowledge, where we categorize the
external knowledge, review their methods and compare different external
knowledge. With the literature review, we further discuss and outlook the role
of symbolic knowledge in addressing ZSL and other machine learning sample
shortage issues.
- Abstract(参考訳): ゼロショット学習(ZSL: Zero-shot Learning)は、外部知識を用いてトレーニング中に一度も現れないクラスを予測することを目的とした学習である。
側面情報)は広く調査されている。
本稿では,外部知識の観点からのZSLに向けた文献レビューを行い,外部知識を分類し,その手法をレビューし,異なる外部知識を比較する。
文献レビューでは、ZSLや他の機械学習サンプル不足問題に対処する上で、象徴的知識が果たす役割について論じ、概観する。
関連論文リスト
- Knowledge Verification to Nip Hallucination in the Bud [73.95113631534635]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z) - Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs [0.5461938536945721]
大規模言語モデル(LLM)は、事前訓練された重みの中に大量の事実情報をカプセル化する。
この知識は本質的に限られたものであり、トレーニングデータの特徴に大きく依存している。
教師なし微調整と検索拡張生成の2つの一般的なアプローチを比較した。
論文 参考訳(メタデータ) (2023-12-10T16:52:00Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - "Merge Conflicts!" Exploring the Impacts of External Distractors to
Parametric Knowledge Graphs [15.660128743249611]
大規模言語モデル(LLM)は、パラメトリック知識として知られる事前学習中に広範な知識を取得する。
LLMは必然的にユーザとの対話中に外部知識を必要とする。
外部知識がパラメトリック知識に干渉した場合、LCMはどのように反応するのだろうか?
論文 参考訳(メタデータ) (2023-09-15T17:47:59Z) - Large Language Models and Knowledge Graphs: Opportunities and Challenges [51.23244504291712]
大規模言語モデル(LLM)は知識表現(Knowledge Representation)と世界(the world)を嵐によって取り除きました。
この屈折点は、明示的な知識表現から、明示的な知識とパラメトリックな知識のハイブリッド表現への新たな焦点へのシフトを示す。
論文 参考訳(メタデータ) (2023-08-11T20:16:57Z) - The Life Cycle of Knowledge in Big Language Models: A Survey [39.955688635216056]
事前訓練された言語モデル(PLM)は、言語モデルによって知識を取得、維持、更新、利用する方法に大きな注目を集めている。
膨大な量の関連する研究にもかかわらず、学習、チューニング、アプリケーションプロセスを通して、言語モデル内で知識がどのように循環するかについての統一された見解はいまだに存在しない。
我々は, PLMにおける知識のライフサイクルを5つの臨界期間に分割し, 構築, 維持, 使用の際の知識の循環について検討することによって, PLMを知識ベースシステムとして再考する。
論文 参考訳(メタデータ) (2023-03-14T03:49:22Z) - Audio Self-supervised Learning: A Survey [60.41768569891083]
SSL(Self-Supervised Learning)は、人間のアノテーションを必要とせずに、大規模データから一般的な表現を見つけることを目的としている。
コンピュータビジョンと自然言語処理の分野での成功により、近年では音声処理や音声処理の分野で採用されている。
論文 参考訳(メタデータ) (2022-03-02T15:58:29Z) - Does Knowledge Help General NLU? An Empirical Study [13.305282275999781]
言語モデルのエンドツーエンド性能を計測し,外部知識の寄与について検討する。
知識の導入は、他のタスクに悪影響を及ぼすことなく、特定のタスクにおける結果を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2021-09-01T18:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。