論文の概要: Towards Ontology-Based Descriptions of Conversations with Qualitatively-Defined Concepts
- arxiv url: http://arxiv.org/abs/2509.04926v1
- Date: Fri, 05 Sep 2025 08:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.537619
- Title: Towards Ontology-Based Descriptions of Conversations with Qualitatively-Defined Concepts
- Title(参考訳): オントロジーに基づく定性的な概念を用いた会話の記述に向けて
- Authors: Barbara Gendron, Gaël Guibon, Mathieu D'aquin,
- Abstract要約: この研究はオントロジーに基づくアプローチを提案し、通常は質的な会話の特徴を定性的に定義する。
本稿では,CEFR言語習熟度を事例として,会話における習熟度制御の課題に適用する。
実験結果から,提案手法は一貫性と説明可能な熟練度レベルの定義を提供し,対話型AIにおける透明性の向上を図っている。
- 参考スコア(独自算出の注目度): 2.748993665644782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The controllability of Large Language Models (LLMs) when used as conversational agents is a key challenge, particularly to ensure predictable and user-personalized responses. This work proposes an ontology-based approach to formally define conversational features that are typically qualitative in nature. By leveraging a set of linguistic descriptors, we derive quantitative definitions for qualitatively-defined concepts, enabling their integration into an ontology for reasoning and consistency checking. We apply this framework to the task of proficiency-level control in conversations, using CEFR language proficiency levels as a case study. These definitions are then formalized in description logic and incorporated into an ontology, which guides controlled text generation of an LLM through fine-tuning. Experimental results demonstrate that our approach provides consistent and explainable proficiency-level definitions, improving transparency in conversational AI.
- Abstract(参考訳): 対話エージェントとして使用する言語モデル(LLM)の制御性は、特に予測可能かつユーザ個人化された応答を保証する上で重要な課題である。
この研究はオントロジーに基づくアプローチを提案し、通常は質的な会話の特徴を定性的に定義する。
言語記述子の集合を活用することにより、定性的に定義された概念の量的定義を導出し、推論と整合性チェックのためのオントロジーへの統合を可能にする。
本稿では,CEFR言語習熟度を事例として,会話における習熟度制御の課題に適用する。
これらの定義は記述論理で形式化され、オントロジーに組み込まれ、微調整によってLSMの制御されたテキスト生成をガイドする。
実験結果から,提案手法は一貫性と説明可能な熟練度レベルの定義を提供し,対話型AIにおける透明性の向上を図っている。
関連論文リスト
- Semantic Mastery: Enhancing LLMs with Advanced Natural Language Understanding [0.0]
本稿では,より高度なNLU技術を用いて,大規模言語モデル(LLM)を進化させる最先端の方法論について論じる。
我々は、構造化知識グラフ、検索強化生成(RAG)、および人間レベルの理解とモデルにマッチする微調整戦略の利用を分析する。
論文 参考訳(メタデータ) (2025-04-01T04:12:04Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [74.0242521818214]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Integration of Contextual Descriptors in Ontology Alignment for Enrichment of Semantic Correspondence [13.69268253901738]
包括的知識モデルを作成するために、本質的および文脈的記述子の統合を可能にする形式化が開発された。
セマンティックアプローチの階層構造と概念間の潜在的な衝突を分析する数学的装置を実証する。
論文 参考訳(メタデータ) (2024-11-28T12:59:32Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Syntactic Substitutability as Unsupervised Dependency Syntax [31.488677474152794]
依存関係関係や構文置換可能性の定義において、より一般的な性質を暗黙的にモデル化する。
この性質は、依存関係の両端にある単語が、同じカテゴリの単語で置き換えられるという事実を捉えている。
使用する代替品の数を増やすことで、自然データに対する解析精度が向上することを示す。
論文 参考訳(メタデータ) (2022-11-29T09:01:37Z) - Towards Transparent Interactive Semantic Parsing via Step-by-Step
Correction [17.000283696243564]
自然言語における予測論理形式を段階的に説明する対話型意味解析フレームワークについて検討する。
フレームワークのインスタンス化として,知識ベース(KBQA)に対する質問応答に注目した。
実験の結果,人間のフィードバックによる対話型フレームワークは,全体の解析精度を大幅に向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-15T20:11:22Z) - Exploring Semantic Capacity of Terms [36.28318577160433]
用語の意味的能力を理解することは、自然言語処理における多くの下流タスクに役立つ。
本稿では,大容量テキストコーパスを入力とし,単語の意味能力を評価する2段階モデルを提案する。
論文 参考訳(メタデータ) (2020-10-05T10:26:36Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。