論文の概要: Proceedings of the Second International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2025)
- arxiv url: http://arxiv.org/abs/2511.09575v2
- Date: Fri, 14 Nov 2025 03:20:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 14:38:02.164822
- Title: Proceedings of the Second International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2025)
- Title(参考訳): 知識表現と推論のための次世代言語モデルに関する第2回国際ワークショップ(NeLaMKRR 2025)の開催報告
- Authors: Ha-Thanh Nguyen, Ken Satoh, Francesca Toni, Randy Goebel, Kostas Stathis,
- Abstract要約: 推論は人間の知性の本質的な要素であり、批判的に考える能力に不可欠な役割を担っている。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
これらのモデルが実際に推論できる範囲を明確にするのは、まだ容易ではない。
- 参考スコア(独自算出の注目度): 15.356983665372718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning is an essential component of human intelligence in that it plays a fundamental role in our ability to think critically, support responsible decisions, and solve challenging problems. Traditionally, AI has addressed reasoning in the context of logic-based representations of knowledge. However, the recent leap forward in natural language processing, with the emergence of language models based on transformers, is hinting at the possibility that these models exhibit reasoning abilities, particularly as they grow in size and are trained on more and more data. Still, despite ongoing discussions about what reasoning is in language models, it is still not easy to articulate to what extent these models are actually capable of reasoning. The goal of this workshop is to create a platform for researchers from different disciplines and/or AI perspectives to explore approaches and techniques with the aim to reconcile reasoning between language models using transformers and logic-based representations. The specific objectives include analysing the reasoning abilities of language models measured alongside KR methods, injecting KR-style reasoning abilities into language models (including by neuro-symbolic means), and formalising the kind of reasoning language models carry out. This exploration aims to uncover how language models can effectively integrate and leverage knowledge and reasoning with it, thus improving their application and utility in areas where precision and reliability are key requirements.
- Abstract(参考訳): 推論は人間の知性の本質的な構成要素であり、批判的に思考し、責任ある決定を支持し、挑戦的な問題を解決する能力において、基本的な役割を担っている。
伝統的に、AIは知識の論理に基づく表現の文脈における推論に対処してきた。
しかし、自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
それでも、言語モデルにおける推論について議論が続いているにもかかわらず、これらのモデルが実際に推論できる程度を具体的に説明するのは容易ではない。
このワークショップの目的は、トランスフォーマーとロジックベースの表現を使用して言語モデル間の推論を整合させることを目的として、異なる分野や/またはAIの観点から研究者がアプローチやテクニックを探求するプラットフォームを構築することである。
具体的な目的は、KR法と共に測定された言語モデルの推論能力の分析、KRスタイルの推論能力を言語モデルに注入すること(ニューロシンボリックな手段を含む)、そして、そのような推論言語モデルの実行方法の形式化である。
この調査は、言語モデルが知識と推論を効果的に統合し、活用する方法を明らかにすることを目的としている。
関連論文リスト
- LINGOLY-TOO: Disentangling Reasoning from Knowledge with Templatised Orthographic Obfuscation [1.2576388595811496]
自然言語を基盤とした挑戦的推論ベンチマークであるlingOLY-TOOを紹介する。
実言語で記述された推論問題をパーミュレートして、多数の質問のバリエーションを生成する。
実験と分析は、モデルが推論を回避し、事前の知識から回答できることを示している。
論文 参考訳(メタデータ) (2025-03-04T19:57:47Z) - IOLBENCH: Benchmarking LLMs on Linguistic Reasoning [11.769142654717799]
IOL(International Linguistics Olympiad)問題に基づく新しいベンチマークであるIOLBENCHを紹介する。
このデータセットは、文法、形態学、音韻学、意味論をテストする様々な問題を含んでいる。
最も先進的なモデルでさえ、言語的な複雑さの複雑さを扱うのに苦労している。
論文 参考訳(メタデータ) (2025-01-08T03:15:10Z) - Trustworthy Alignment of Retrieval-Augmented Large Language Models via Reinforcement Learning [84.94709351266557]
検索強化に関して,言語モデルの信頼性に焦点をあてる。
検索強化言語モデルには,文脈的知識とパラメトリック的知識の両方に応じて応答を供給できる本質的な能力があると考えられる。
言語モデルと人間の嗜好の整合性に着想を得て,検索強化言語モデルを外部証拠にのみ依存する状況に整合させるための第一歩を踏み出した。
論文 参考訳(メタデータ) (2024-10-22T09:25:21Z) - Proceedings of the First International Workshop on Next-Generation Language Models for Knowledge Representation and Reasoning (NeLaMKRR 2024) [16.282850445579857]
推論は人間の知性の本質的な要素であり、批判的に考える能力において基本的な役割を果たす。
自然言語処理における最近の進歩は、トランスフォーマーに基づく言語モデルの出現とともに、これらのモデルが推論能力を示す可能性を示唆している。
言語モデルにおける推論について議論が続いているが、これらのモデルが実際に推論できる程度に注目することは容易ではない。
論文 参考訳(メタデータ) (2024-10-07T02:31:47Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。