論文の概要: Knowledge Conceptualization Impacts RAG Efficacy
- arxiv url: http://arxiv.org/abs/2507.09389v1
- Date: Sat, 12 Jul 2025 20:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.069416
- Title: Knowledge Conceptualization Impacts RAG Efficacy
- Title(参考訳): 知識概念化はRAG効果に影響を与える
- Authors: Chris Davis Jaldi, Anmol Saini, Elham Ghiasi, O. Divine Eziolise, Cogan Shimizu,
- Abstract要約: 本稿では,伝達可能な,解釈可能なニューロシンボリックAIシステムの設計について検討する。
具体的には、'Agentic Retrieval-Augmented Generation'システムと呼ばれるシステムのクラスに焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0786430477112975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability and interpretability are cornerstones of frontier and next-generation artificial intelligence (AI) systems. This is especially true in recent systems, such as large language models (LLMs), and more broadly, generative AI. On the other hand, adaptability to new domains, contexts, or scenarios is also an important aspect for a successful system. As such, we are particularly interested in how we can merge these two efforts, that is, investigating the design of transferable and interpretable neurosymbolic AI systems. Specifically, we focus on a class of systems referred to as ''Agentic Retrieval-Augmented Generation'' systems, which actively select, interpret, and query knowledge sources in response to natural language prompts. In this paper, we systematically evaluate how different conceptualizations and representations of knowledge, particularly the structure and complexity, impact an AI agent (in this case, an LLM) in effectively querying a triplestore. We report our results, which show that there are impacts from both approaches, and we discuss their impact and implications.
- Abstract(参考訳): 説明可能性と解釈性は、フロンティアと次世代人工知能(AI)システムの基盤である。
これは特に、大規模言語モデル(LLM)や、より広くは、生成的AIなど、最近のシステムにおいて当てはまる。
一方、新しいドメイン、コンテキスト、シナリオへの適応性もまた、成功したシステムにとって重要な側面である。
そのため、我々はこれらの2つの取り組み、すなわち伝達可能で解釈可能なニューロシンボリックAIシステムの設計をどのように統合するかに特に関心がある。
具体的には,'Agentic Retrieval-Augmented Generation'システムと呼ばれる,自然言語のプロンプトに応じて,知識ソースを積極的に選択し,解釈し,クエリするシステムに焦点をあてる。
本稿では,知識の異なる概念化と表現,特に構造と複雑さが,AIエージェント(この場合,LLM)に効果的に三重店に問い合わせる上でどう影響するかを体系的に評価する。
この結果から,両アプローチの影響が示唆され,その影響と意義について考察した。
関連論文リスト
- Explainability in Context: A Multilevel Framework Aligning AI Explanations with Stakeholder with LLMs [11.11196150521188]
本稿では、AIに対する信頼が、説明書の設計と提供にどのように影響するかを論じる。
このフレームワークは、アルゴリズムとドメインベース、人間中心、社会的説明責任の3つのレイヤで構成されている。
論文 参考訳(メタデータ) (2025-06-06T08:54:41Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Cutting Through the Confusion and Hype: Understanding the True Potential of Generative AI [0.0]
本稿では,生成型AI(genAI)の微妙な景観について考察する。
それは、Large Language Models (LLMs)のようなニューラルネットワークベースのモデルに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-22T02:18:44Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Imaginations of WALL-E : Reconstructing Experiences with an
Imagination-Inspired Module for Advanced AI Systems [2.452498006404167]
本システムは,テキスト入力と他のモダリティのギャップを埋めるイマジネーションに着想を得たモジュールを備える。
これは、人間の解釈と異なるが、等しく有効であるかもしれない概念の独特な解釈につながる。
この研究は、想像力に触発されたAIシステムの開発における重要な進歩を表している。
論文 参考訳(メタデータ) (2023-08-20T20:10:55Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。