論文の概要: NIM: Neuro-symbolic Ideographic Metalanguage for Inclusive Communication
- arxiv url: http://arxiv.org/abs/2510.10459v1
- Date: Sun, 12 Oct 2025 05:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.949915
- Title: NIM: Neuro-symbolic Ideographic Metalanguage for Inclusive Communication
- Title(参考訳): NIM : 包括的コミュニケーションのためのニューロシンボリックIdeographic Metalang
- Authors: Prawaal Sharma, Poonam Goyal, Navneet Goyal, Vidisha Sharma,
- Abstract要約: 学術的・言語的・文化的境界を超越した,新しい普遍的イデオロギー的メタ言語を導入する。
私たちの制度は、公的教育に制限のある未熟な人口に効果的に役立ちます。
- 参考スコア(独自算出の注目度): 3.03088776072187
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Digital communication has become the cornerstone of modern interaction, enabling rapid, accessible, and interactive exchanges. However, individuals with lower academic literacy often face significant barriers, exacerbating the "digital divide". In this work, we introduce a novel, universal ideographic metalanguage designed as an innovative communication framework that transcends academic, linguistic, and cultural boundaries. Our approach leverages principles of Neuro-symbolic AI, combining neural-based large language models (LLMs) enriched with world knowledge and symbolic knowledge heuristics grounded in the linguistic theory of Natural Semantic Metalanguage (NSM). This enables the semantic decomposition of complex ideas into simpler, atomic concepts. Adopting a human-centric, collaborative methodology, we engaged over 200 semi-literate participants in defining the problem, selecting ideographs, and validating the system. With over 80\% semantic comprehensibility, an accessible learning curve, and universal adaptability, our system effectively serves underprivileged populations with limited formal education.
- Abstract(参考訳): デジタル通信は現代の対話の基盤となり、迅速な、アクセスしやすく、対話的な交換を可能にしている。
しかし、教育リテラシーの低い個人は、しばしば大きな障壁に直面し、「デジタル・ディビジョン」を悪化させる。
本稿では,学術的,言語的,文化的境界を超越した,革新的なコミュニケーションフレームワークとして設計された,新しい普遍的イデオロギーメタ言語を紹介する。
我々のアプローチは、世界知識に富んだニューラルベース大規模言語モデル(LLM)と、自然意味メタ言語(NSM)の言語理論に基づく記号的知識ヒューリスティックスを組み合わせた、ニューロシンボリックAIの原理を活用する。
これにより、複雑なアイデアをより単純で原子的な概念に意味論的に分解することができる。
人中心で協調的な方法論を採用することで、200人以上の半文字の参加者がこの問題を定義し、イデオログラフを選択し、システムを検証しました。
80 %以上のセマンティック・コングリシティ、アクセス可能な学習曲線、そして普遍的な適応性によって、我々のシステムは、限られた正規教育を持つ未熟な人口に効果的に役立ちます。
関連論文リスト
- Towards Open-Ended Discovery for Low-Resource NLP [2.31792878608513]
オープンエンドでインタラクティブな言語発見へのパラダイムシフトを議論する。
本稿では,人・機械の協調的不確実性に基づく枠組みを提案する。
この論文は行動への呼びかけであり、我々は、未文書の言語におけるAIが人間の知識とどのように関わるかを再考することを提唱する。
論文 参考訳(メタデータ) (2025-09-22T01:19:04Z) - Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [78.61382193420914]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - Introducing Brain-like Concepts to Embodied Hand-crafted Dialog Management System [1.178527785547223]
本稿では,グラフィカル言語を用いた手作りモデルに基づく混合イニシアティブダイアログとアクション生成を実現するニューラル・ビヘイビア・エンジンを提案する。
このような脳のようなアーキテクチャのユーザビリティのデモは、セミパブリック空間で動作する仮想レセプタリストアプリケーションを通じて記述される。
論文 参考訳(メタデータ) (2024-06-13T10:54:03Z) - Language, Environment, and Robotic Navigation [0.0]
本稿では,言語が抽象的なコミュニケーションシステムとして機能し,知覚経験の基盤的表現として機能する統一的な枠組みを提案する。
本稿では,分散意味論の認知モデルとその自律エージェントへの応用について概観し,言語統合システムの変容の可能性について述べる。
論文 参考訳(メタデータ) (2024-04-03T20:30:38Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z) - Crossmodal Language Grounding in an Embodied Neurocognitive Model [28.461246169379685]
ヒトの幼児は早期に自然言語を習得することができる。
神経科学的な観点では、自然言語は具現化され、ほとんど全てではなく、感覚と感覚のモダリティに基礎を置いている。
バイオインスパイアされたメカニズムを反映した言語接地のための神経認知モデルを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。