論文の概要: The Mercurial Top-Level Ontology of Large Language Models
- arxiv url: http://arxiv.org/abs/2405.01581v1
- Date: Fri, 26 Apr 2024 16:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 16:00:17.742004
- Title: The Mercurial Top-Level Ontology of Large Language Models
- Title(参考訳): 大規模言語モデルのMercurial Top-Level Ontology
- Authors: Nele Köhler, Fabian Neuhaus,
- Abstract要約: 大規模言語モデル(LLM)による応答における暗黙的存在論的コミットメントを体系化し分析する。
LLMが生成したテキストに反映される暗黙的な存在論的分類を示す方法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In our work, we systematize and analyze implicit ontological commitments in the responses generated by large language models (LLMs), focusing on ChatGPT 3.5 as a case study. We investigate how LLMs, despite having no explicit ontology, exhibit implicit ontological categorizations that are reflected in the texts they generate. The paper proposes an approach to understanding the ontological commitments of LLMs by defining ontology as a theory that provides a systematic account of the ontological commitments of some text. We investigate the ontological assumptions of ChatGPT and present a systematized account, i.e., GPT's top-level ontology. This includes a taxonomy, which is available as an OWL file, as well as a discussion about ontological assumptions (e.g., about its mereology or presentism). We show that in some aspects GPT's top-level ontology is quite similar to existing top-level ontologies. However, there are significant challenges arising from the flexible nature of LLM-generated texts, including ontological overload, ambiguity, and inconsistency.
- Abstract(参考訳): 本研究は,大規模言語モデル(LLM)が生成する応答における暗黙的存在論的コミットメントを体系化し,分析し,ChatGPT 3.5に着目した事例研究である。
明示的なオントロジーを持たないにもかかわらず,LLMが生成するテキストに反映される暗黙的な存在論的分類を示すかを検討する。
オントロジーを,あるテキストのオントロジー的コミットメントの体系的な説明を提供する理論として定義することにより,LCMのオントロジー的コミットメントを理解するためのアプローチを提案する。
本稿では,ChatGPTのオントロジ的仮定を考察し,GPTのトップレベルオントロジという体系化された説明を提示する。
これにはOWLファイルとして利用できる分類法や、オントロジ的な仮定(例えば、そのメレオロジーや存在論)に関する議論が含まれる。
いくつかの点において、GPTの上位オントロジーは既存の上位オントロジーと非常によく似ている。
しかし、LLM生成テキストの柔軟性に起因する大きな課題は、オントロジ的過負荷、曖昧さ、矛盾などである。
関連論文リスト
- Categorical Syllogisms Revisited: A Review of the Logical Reasoning Abilities of LLMs for Analyzing Categorical Syllogism [62.571419297164645]
本稿では,分類的シロジズムを解析するための大規模言語モデルの論理的推論能力に関する先行研究を体系的に概説する。
まず、純粋に論理的な観点から分類的シロジズムの可能なバリエーションについて検討する。
次に、既存のデータセットでテストされた基本的な設定(ムードとフィギュア)を調べます。
論文 参考訳(メタデータ) (2024-06-26T21:17:20Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - PhonologyBench: Evaluating Phonological Skills of Large Language Models [57.80997670335227]
音声学は、音声の構造と発音規則の研究であり、Large Language Model (LLM) 研究において批判的であるが、しばしば見落とされがちな要素である。
LLMの音韻的スキルを明示的にテストするための3つの診断タスクからなる新しいベンチマークであるPhonologyBenchを提案する。
我々は,Rhyme Word GenerationとSyllable countingにおいて,人間と比較した場合,それぞれ17%と45%の有意なギャップを観察した。
論文 参考訳(メタデータ) (2024-04-03T04:53:14Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Ontology Revision based on Pre-trained Language Models [32.92146634065263]
オントロジーの改訂は、新しいオントロジーを既存のオントロジーにシームレスに組み込むことを目的としている。
不整合は不整合を引き起こし、矛盾するオントロジーを推論する主要な要因であり、無意味な答えが得られる。
この問題に対処するため,様々なオントロジー修正手法が提案されている。
本稿では,事前学習モデルの改訂方法について検討する。
論文 参考訳(メタデータ) (2023-10-27T00:52:01Z) - Logic-induced Diagnostic Reasoning for Semi-supervised Semantic
Segmentation [85.12429517510311]
LogicDiagは、セマンティックセグメンテーションのためのニューラルネットワークによる半教師付き学習フレームワークである。
私たちの重要な洞察は、記号的知識によって識別される擬似ラベル内の衝突は、強いが一般的に無視される学習信号として機能する、ということです。
本稿では,論理規則の集合として意味論的概念の構造的抽象化を定式化するデータ・ハングリーセグメンテーションシナリオにおけるLogicDiagの実践的応用について紹介する。
論文 参考訳(メタデータ) (2023-08-24T06:50:07Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Semantics, Ontology and Explanation [0.0]
本稿では, オントロジアンパックと哲学・科学における他の形態の説明との関係について論じる。
また,人工知能分野におけるオントロジアンパックと他の形態の説明との関係についても論じる。
論文 参考訳(メタデータ) (2023-04-21T16:54:34Z) - Contextual Semantic Embeddings for Ontology Subsumption Prediction [37.61925808225345]
本稿では,Web Ontology (OWL) のクラスに BERTSubs というコンテキスト埋め込みの新たな予測手法を提案する。
これは、事前訓練された言語モデルBERTを利用してクラスの埋め込みを計算し、クラスコンテキストと論理的存在制約を組み込むためにカスタマイズされたテンプレートを提案する。
論文 参考訳(メタデータ) (2022-02-20T11:14:04Z) - Conceptual Modeling of Time for Computational Ontologies [0.0]
モデルは、システムをポップアップさせるオブジェクトやプロセスの記述を指す。
焦点は、変化、イベント、時間といった概念に焦点を当てています。
その結果,TMはこれらの存在論的問題に対処するための有用なツールであることがわかった。
論文 参考訳(メタデータ) (2020-07-16T20:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。