論文の概要: KNOW: A Real-World Ontology for Knowledge Capture with Large Language Models
- arxiv url: http://arxiv.org/abs/2405.19877v1
- Date: Thu, 30 May 2024 09:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 15:09:01.770867
- Title: KNOW: A Real-World Ontology for Knowledge Capture with Large Language Models
- Title(参考訳): KNOW: 大規模言語モデルを用いた知識キャプチャのための実世界のオントロジー
- Authors: Arto Bendiken,
- Abstract要約: KNOWは、パーソナルAIアシスタントなどの実世界の生成AIユースケースにおいて、大きな言語モデル(LLM)を拡張するために日々の知識を捉えるように設計された最初のオントロジーである。
モデル化された概念の初期の範囲は、時空(場所、イベント)と社会的(人、グループ、組織)に限られています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present KNOW--the Knowledge Navigator Ontology for the World--the first ontology designed to capture everyday knowledge to augment large language models (LLMs) in real-world generative AI use cases such as personal AI assistants. Our domain is human life, both its everyday concerns and its major milestones. We have limited the initial scope of the modeled concepts to only established human universals: spacetime (places, events) plus social (people, groups, organizations). The inclusion criteria for modeled concepts are pragmatic, beginning with universality and utility. We compare and contrast previous work such as Schema.org and Cyc--as well as attempts at a synthesis of knowledge graphs and language models--noting how LLMs already encode internally much of the commonsense tacit knowledge that took decades to capture in the Cyc project. We also make available code-generated software libraries for the 12 most popular programming languages, enabling the direct use of ontology concepts in software engineering. We emphasize simplicity and developer experience in promoting AI interoperability.
- Abstract(参考訳): 我々はKNOW(Knowledge Navigator Ontology for the World) - パーソナルAIアシスタントなどの実世界の生成AIユースケースにおいて、大規模な言語モデル(LLM)を増強するために日々の知識を捉えるための最初のオントロジー。
私たちの領域は人間の生活であり、日々の関心事と大きなマイルストーンの両方です。
我々は、モデル化された概念の初期の範囲を、時空(場所、イベント)と社会的(人、グループ、組織)という、確立された人類の普遍性に限定した。
モデル化された概念の包含基準は、普遍性と実用性から始まる実用的である。
我々は、Schema.orgやCycといった以前の研究と、知識グラフと言語モデルの合成の試みを比較し、対比する。
また、最も人気のある12のプログラミング言語向けのコード生成ソフトウェアライブラリも提供し、ソフトウェア工学においてオントロジーの概念を直接使用できるようにしています。
AIの相互運用性を促進する上で、シンプルさと開発者エクスペリエンスを強調します。
関連論文リスト
- Programming with AI: Evaluating ChatGPT, Gemini, AlphaCode, and GitHub Copilot for Programmers [0.0]
本稿では、ChatGPT、Gemini(Bard AI)、AlphaCode、GitHub Copilotなど、主要なプログラミングアシスタントの徹底的な評価を行う。
AIモデルの潜在能力を具現化する倫理的開発プラクティスの必要性を強調している。
論文 参考訳(メタデータ) (2024-11-14T06:40:55Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - Cognition is All You Need -- The Next Layer of AI Above Large Language
Models [0.0]
我々は,大規模言語モデル以外のニューロシンボリック認知のためのフレームワークであるCognitive AIを紹介する。
我々は、認知AIがAGIのようなAI形態の進化に必須の先駆者であり、AGIは独自の確率論的アプローチでは達成できないと主張する。
我々は、大規模言語モデル、AIの採用サイクル、および商用の認知AI開発に関する議論で締めくくります。
論文 参考訳(メタデータ) (2024-03-04T16:11:57Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - PwR: Exploring the Role of Representations in Conversational Programming [17.838776812138626]
PwR(Programming with Representations)は、自然言語でシステムの理解をユーザに伝えるために表現を使用する手法である。
その結果,表現は理解可能性を大幅に向上させ,参加者の間にエージェンシーの感覚を植え付けることができた。
論文 参考訳(メタデータ) (2023-09-18T05:38:23Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Towards AGI in Computer Vision: Lessons Learned from GPT and Large
Language Models [98.72986679502871]
大規模言語モデル(LLM)を利用したチャットシステムが出現し、人工知能(AGI)を実現するための有望な方向へと急速に成長する
しかし、コンピュータビジョン(CV)におけるAGIへの道のりは未だに不明である。
CVアルゴリズムを世界規模で対話可能な環境に配置し、その動作に関する将来のフレームを予測するための事前トレーニングを行い、さまざまなタスクをこなすための命令で微調整するパイプラインを想像する。
論文 参考訳(メタデータ) (2023-06-14T17:15:01Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - AI from concrete to abstract: demystifying artificial intelligence to
the general public [0.0]
本稿では,コンクリートから抽象的(AIcon2abs)への新たな方法論,AIについて述べる。
主な戦略は、人工知能のデミスティフィケーションを促進することである。
WiSARDの軽量化により、トレーニングタスクと分類タスクの視覚化と理解が容易になる。
論文 参考訳(メタデータ) (2020-06-07T01:14:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。