論文の概要: The Mercurial Top-Level Ontology of Large Language Models
- arxiv url: http://arxiv.org/abs/2405.01581v1
- Date: Fri, 26 Apr 2024 16:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 16:00:17.742004
- Title: The Mercurial Top-Level Ontology of Large Language Models
- Title(参考訳): 大規模言語モデルのMercurial Top-Level Ontology
- Authors: Nele Köhler, Fabian Neuhaus,
- Abstract要約: 大規模言語モデル(LLM)による応答における暗黙的存在論的コミットメントを体系化し分析する。
LLMが生成したテキストに反映される暗黙的な存在論的分類を示す方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In our work, we systematize and analyze implicit ontological commitments in the responses generated by large language models (LLMs), focusing on ChatGPT 3.5 as a case study. We investigate how LLMs, despite having no explicit ontology, exhibit implicit ontological categorizations that are reflected in the texts they generate. The paper proposes an approach to understanding the ontological commitments of LLMs by defining ontology as a theory that provides a systematic account of the ontological commitments of some text. We investigate the ontological assumptions of ChatGPT and present a systematized account, i.e., GPT's top-level ontology. This includes a taxonomy, which is available as an OWL file, as well as a discussion about ontological assumptions (e.g., about its mereology or presentism). We show that in some aspects GPT's top-level ontology is quite similar to existing top-level ontologies. However, there are significant challenges arising from the flexible nature of LLM-generated texts, including ontological overload, ambiguity, and inconsistency.
- Abstract(参考訳): 本研究は,大規模言語モデル(LLM)が生成する応答における暗黙的存在論的コミットメントを体系化し,分析し,ChatGPT 3.5に着目した事例研究である。
明示的なオントロジーを持たないにもかかわらず,LLMが生成するテキストに反映される暗黙的な存在論的分類を示すかを検討する。
オントロジーを,あるテキストのオントロジー的コミットメントの体系的な説明を提供する理論として定義することにより,LCMのオントロジー的コミットメントを理解するためのアプローチを提案する。
本稿では,ChatGPTのオントロジ的仮定を考察し,GPTのトップレベルオントロジという体系化された説明を提示する。
これにはOWLファイルとして利用できる分類法や、オントロジ的な仮定(例えば、そのメレオロジーや存在論)に関する議論が含まれる。
いくつかの点において、GPTの上位オントロジーは既存の上位オントロジーと非常によく似ている。
しかし、LLM生成テキストの柔軟性に起因する大きな課題は、オントロジ的過負荷、曖昧さ、矛盾などである。
関連論文リスト
- LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - The Stochastic Parrot on LLM's Shoulder: A Summative Assessment of Physical Concept Understanding [65.28200190598082]
本稿では、慎重に設計された物理概念理解タスクであるPhysorCoについて要約評価を行う。
我々のタスクは、物理的現象を抽象的に記述するグリッド形式入力の使用によって問題を緩和する。
1)GP-4oを含む最先端のLLM, 40%遅れの遅れ, 2) グリッドタスクで失敗するとオウム, o1 現象が LLM に存在するが, 自然言語で同じ概念を記述し, 認識することができる。
論文 参考訳(メタデータ) (2025-02-13T04:00:03Z) - Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オンロジはドメインの知識とメタデータを表現するために広く使われている。
直接支援できる論理的推論は、学習、近似、予測において非常に限られています。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - Ontology Revision based on Pre-trained Language Models [32.92146634065263]
オントロジーの改訂は、新しいオントロジーを既存のオントロジーにシームレスに組み込むことを目的としている。
不整合は不整合を引き起こし、矛盾するオントロジーを推論する主要な要因であり、無意味な答えが得られる。
この問題に対処するため,様々なオントロジー修正手法が提案されている。
本稿では,事前学習モデルの改訂方法について検討する。
論文 参考訳(メタデータ) (2023-10-27T00:52:01Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Semantics, Ontology and Explanation [0.0]
本稿では, オントロジアンパックと哲学・科学における他の形態の説明との関係について論じる。
また,人工知能分野におけるオントロジアンパックと他の形態の説明との関係についても論じる。
論文 参考訳(メタデータ) (2023-04-21T16:54:34Z) - Contextual Semantic Embeddings for Ontology Subsumption Prediction [37.61925808225345]
本稿では,Web Ontology (OWL) のクラスに BERTSubs というコンテキスト埋め込みの新たな予測手法を提案する。
これは、事前訓練された言語モデルBERTを利用してクラスの埋め込みを計算し、クラスコンテキストと論理的存在制約を組み込むためにカスタマイズされたテンプレートを提案する。
論文 参考訳(メタデータ) (2022-02-20T11:14:04Z) - Conceptual Modeling of Time for Computational Ontologies [0.0]
モデルは、システムをポップアップさせるオブジェクトやプロセスの記述を指す。
焦点は、変化、イベント、時間といった概念に焦点を当てています。
その結果,TMはこれらの存在論的問題に対処するための有用なツールであることがわかった。
論文 参考訳(メタデータ) (2020-07-16T20:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。