論文の概要: Generative Ontology: When Structured Knowledge Learns to Create
- arxiv url: http://arxiv.org/abs/2602.05636v2
- Date: Mon, 09 Feb 2026 03:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 17:49:39.481142
- Title: Generative Ontology: When Structured Knowledge Learns to Create
- Title(参考訳): 生成オントロジー: 構造化知識が創造することを学ぶとき
- Authors: Benny Cheung,
- Abstract要約: 生成オントロジー(Generative Ontology)は、ドメイン知識をDSPyシグネチャを介してLLM生成を制約する実行可能なピダンティックスキーマとしてエンコードする。
我々はGameGrammarというフレームワークを実演し、完全なテーブルトップゲームデザインを作成し、3つの経験的研究を提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional ontologies describe domain structure but cannot generate novel artifacts. Large language models generate fluently but produce outputs lacking structural validity, hallucinating mechanisms without components, goals without end conditions. We introduce Generative Ontology, a framework synthesizing these complementary strengths: ontology provides the grammar; the LLM provides the creativity. Generative Ontology encodes domain knowledge as executable Pydantic schemas constraining LLM generation via DSPy signatures. A multi-agent pipeline assigns specialized roles: a Mechanics Architect designs game systems, a Theme Weaver integrates narrative, a Balance Critic identifies exploits, each carrying a professional "anxiety" that prevents shallow outputs. Retrieval-augmented generation grounds designs in precedents from existing exemplars. We demonstrate the framework through GameGrammar, generating complete tabletop game designs, and present three empirical studies. An ablation study (120 designs, 4 conditions) shows multi-agent specialization produces the largest quality gains (fun d=1.12, depth d=1.59; p<.001), while schema validation eliminates structural errors (d=4.78). A benchmark against 20 published board games reveals structural parity but a bounded creative gap (fun d=1.86): generated designs score 7-8 while published games score 8-9. A test-retest study (50 evaluations) validates the LLM-based evaluator, with 7/9 metrics achieving Good-to-Excellent reliability (ICC 0.836-0.989). The pattern generalizes beyond games. Any domain with expert vocabulary, validity constraints, and accumulated exemplars is a candidate for Generative Ontology.
- Abstract(参考訳): 伝統的なオントロジーはドメイン構造を記述するが、新しいアーティファクトを生成することはできない。
大規模言語モデルは流動的に生成するが、構造的妥当性に欠ける出力、コンポーネントなしの幻覚機構、終了条件なしの目標を生成する。
我々は、これらの相補的な強みを合成するフレームワークである生成オントロジーを紹介し、オントロジーは文法を提供し、LLMは創造性を提供する。
生成オントロジー(Generative Ontology)は、ドメイン知識をDSPyシグネチャを介してLLM生成を制約する実行可能なピダンティックスキーマとしてエンコードする。
メカニクスアーキテクトがゲームシステムを設計し、テーマウィーバーが物語を統合し、バランス批評家がエクスプロイトを特定し、それぞれが浅いアウトプットを防ぐためのプロフェッショナルな"不安"を持っている。
検索の強化された世代は、既存の見本から先例として設計されている。
我々はGameGrammarを通じてこのフレームワークを実演し、完全なテーブルトップゲームデザインを作成し、3つの経験的研究を提示する。
アブレーション研究(120の設計、4条件)では、マルチエージェントの特殊化が最大の品質向上(fun d=1.12, depth d=1.59; p<.001)を生み出し、スキーマ検証では構造的誤り(d=4.78)を排除している。
20のボードゲームに対するベンチマークでは、構造的な同等性を示すが、境界付きクリエイティビティギャップ (fun d=1.86): 生成されたデザインは7-8、発行されたゲームは8-9である。
テスト・リテスト(50評価)では、LCMベースの評価器を7/9の基準で評価し、良好なエクセルレント信頼性(ICC 0.836-0.989)を達成した。
このパターンはゲームを超えて一般化される。
専門家の語彙、妥当性の制約、蓄積された経験を持つドメインは、生成オントロジーの候補である。
関連論文リスト
- Disco-RAG: Discourse-Aware Retrieval-Augmented Generation [81.53888908988756]
生成プロセスに談話信号を注入する談話認識フレームワークであるディスコRAGを提案する。
提案手法は,チャンク内談話木を構築し,局所階層を捕捉し,クロスパスコヒーレンスをモデル化するためのチャンク間修辞グラフを構築する。
質問応答と長期文書要約ベンチマークの実験から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-07T20:32:50Z) - RL-Struct: A Lightweight Reinforcement Learning Framework for Reliable Structured Output in LLMs [0.08594140167290097]
大規模言語モデル(LLM)は、自然言語の生成と推論において顕著な能力を示した。
自動化されたソフトウェアエコシステムへの統合は、しばしば"構造ギャップ"によって妨げられます。
このギャップを埋めるための軽量で効率的な強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-29T04:47:14Z) - Evaluating CxG Generalisation in LLMs via Construction-Based NLI Fine Tuning [6.212055472369674]
高語彙化から高スキーマ化までの8つの英語構成をカバーする80k文のConTest-NLIベンチマークを導入する。
我々のパイプラインは、テンプレート化とモデル・イン・ザ・ループフィルタの適用により、多様な合成NLIトリプルを生成する。
論文 参考訳(メタデータ) (2025-09-19T21:03:10Z) - Comparative Evaluation of Large Language Models for Test-Skeleton Generation [0.18374319565577157]
本稿では,Large Language Models (LLMs) を用いて,テストスケルトンの自動生成について検討する。
テストスケルトンは、完全なテストロジックを実装することなく、ユニットテストカバレッジを概説する構造的テンプレートである。
大学ソフトウェア工学コースで開発された実世界のRubyクラスに対して,RSpecスケルトンを生成する能力に基づいて4つのLLMを評価した。
論文 参考訳(メタデータ) (2025-09-04T20:02:52Z) - Beyond Isolated Dots: Benchmarking Structured Table Construction as Deep Knowledge Extraction [80.88654868264645]
Arranged and Organized extract Benchmarkは、断片化された文書を理解するための大規模言語モデルの能力を評価するために設計された。
AOEには3つの異なるドメインにまたがる11のタスクが含まれており、さまざまな入力クエリに適したコンテキスト固有のスキーマを生成するモデルが必要である。
結果は、最も先進的なモデルでさえ、かなり苦労したことを示している。
論文 参考訳(メタデータ) (2025-07-22T06:37:51Z) - Multi-Actor Generative Artificial Intelligence as a Game Engine [49.360775442760314]
ジェネレーティブAIは、社会科学モデリングからインタラクティブな物語、AI評価に至るまで、マルチアクター環境で使用することができる。
ここでは、ゲームマスター(GM)が環境に責任を持ち、プレイヤーキャラクターの自発的な行動によって直接決定されないストーリーの全ての部分を生成できるテーブルトップロールプレイングゲーム(TTRPG)からインスピレーションを得るのが良い方法であると論じる。
論文 参考訳(メタデータ) (2025-07-10T22:31:09Z) - Objective-Free Local Learning and Emergent Language Structure in Thinking Machines [0.0]
本稿では,局所的な事象駆動型創発学習に基づく生成言語モデリングのためのニューロシンボリックフレームワークを提案する。
コアには階層的なホップフィールドメモリチェーンがあり、構成的短期記憶と動的トークン化器として機能する。
我々は、推論中に新しいニューロンを短時間活性化することで、分散マルチスケールトークンの特徴を象徴的な埋め込みに結合することを示した。
論文 参考訳(メタデータ) (2025-06-29T15:29:13Z) - Generative Hierarchical Materials Search [91.93125016916463]
結晶構造の制御可能な生成のための生成階層材料探索(GenMS)を提案する。
GenMSは(1)高レベル自然言語を入力とし、結晶に関する中間テキスト情報を生成する言語モデルからなる。
GenMSはまた、生成された結晶構造から特性(たとえば生成エネルギー)を予測するためにグラフニューラルネットワークを使用する。
論文 参考訳(メタデータ) (2024-09-10T17:51:28Z) - Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian [75.94354349994576]
本稿では,より小型のドメイン固有エンコーダ LM と,特殊なコンテキストにおける性能向上手法の併用の可能性について検討する。
本研究は, イタリアの官僚的・法的言語に焦点をあて, 汎用モデルと事前学習型エンコーダのみのモデルの両方を実験する。
その結果, 事前学習したモデルでは, 一般知識の頑健性が低下する可能性があるが, ドメイン固有のタスクに対して, ゼロショット設定においても, より優れた適応性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-30T08:50:16Z) - Annotating FrameNet via Structure-Conditioned Language Generation [15.877232416259805]
本稿では、過剰な生成とフィルタのアプローチに従って、新しいフレーム文の注釈付き文を生成するフレームワークを提案する。
以上の結果から,リッチで明示的な意味情報に対する条件付けは,人間の受容度が高い世代を生み出す傾向が示唆された。
論文 参考訳(メタデータ) (2024-06-07T11:01:15Z) - COLLIE: Systematic Construction of Constrained Text Generation Tasks [33.300039566331876]
COLLIEは文法ベースのフレームワークで、多種多様な世代レベルのリッチで構成的な制約を仕様化することができる。
本研究では,制約構造と生テキストコーパスが与えられたタスクインスタンスの自動抽出ツールを開発する。
我々は、最先端の5つの言語モデルに対して体系的な実験を行い、その性能を分析し、欠点を明らかにする。
論文 参考訳(メタデータ) (2023-07-17T17:48:51Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部の動作や推論メカニズムを理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがCFG定義階層を正確に学習し、推論し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - LasUIE: Unifying Information Extraction with Latent Adaptive
Structure-aware Generative Language Model [96.889634747943]
全ての典型的な情報抽出タスク(UIE)を1つの生成言語モデル(GLM)で普遍的にモデル化し、大きな可能性を明らかにした。
UIE のための構文知識のパワーを完全に解放する構造対応 GLM を提案する。
7つのタスクにわたるIEベンチマークが12以上あり、私たちのシステムはベースラインのUIEシステムよりも大幅に改善されていることを示しています。
論文 参考訳(メタデータ) (2023-04-13T04:01:14Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Model Criticism for Long-Form Text Generation [113.13900836015122]
我々は,テキストの高レベル構造を評価するために,潜在空間におけるモデル批判という統計ツールを適用した。
我々は,コヒーレンス,コア,トピックスという,ハイレベルな談話の3つの代表的な側面について実験を行った。
トランスフォーマーベースの言語モデルでは、トピック構造をキャプチャできるが、構造コヒーレンスやモデリングコアスを維持するのが難しくなる。
論文 参考訳(メタデータ) (2022-10-16T04:35:58Z) - An Automatic Ontology Generation Framework with An Organizational
Perspective [0.0]
本研究の目的は、非構造化テキストコーパスを形式的に一貫したドメインに変換する新しいドメイン非依存の自動生成フレームワークを開発することである。
提案するフレームワークのパワーは、自動生成する動的機能とKGと品質機能を統合することである。
論文 参考訳(メタデータ) (2022-01-15T18:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。