論文の概要: Building Trustworthy AI by Addressing its 16+2 Desiderata with Goal-Directed Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2506.12667v1
- Date: Sun, 15 Jun 2025 00:09:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.682632
- Title: Building Trustworthy AI by Addressing its 16+2 Desiderata with Goal-Directed Commonsense Reasoning
- Title(参考訳): Goal-Directed Commonsense Reasoningによる16以上のDesiderataに対処した信頼できるAIの構築
- Authors: Alexis R. Tudor, Yankai Zeng, Huaduo Wang, Joaquin Arias, Gopal Gupta,
- Abstract要約: サブシンボリック機械学習アルゴリズムは推論をシミュレートするが幻覚を与える。
ルールベースの推論者は、推論ステップの連鎖を提供することができるが、複雑であり、多数の推論を使用する。
本稿では,目標指向の制約ベースの応答セットプログラミング推論器 s(CASP) を提案する。
- 参考スコア(独自算出の注目度): 1.1584245758108584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current advances in AI and its applicability have highlighted the need to ensure its trustworthiness for legal, ethical, and even commercial reasons. Sub-symbolic machine learning algorithms, such as the LLMs, simulate reasoning but hallucinate and their decisions cannot be explained or audited (crucial aspects for trustworthiness). On the other hand, rule-based reasoners, such as Cyc, are able to provide the chain of reasoning steps but are complex and use a large number of reasoners. We propose a middle ground using s(CASP), a goal-directed constraint-based answer set programming reasoner that employs a small number of mechanisms to emulate reliable and explainable human-style commonsense reasoning. In this paper, we explain how s(CASP) supports the 16 desiderata for trustworthy AI introduced by Doug Lenat and Gary Marcus (2023), and two additional ones: inconsistency detection and the assumption of alternative worlds. To illustrate the feasibility and synergies of s(CASP), we present a range of diverse applications, including a conversational chatbot and a virtually embodied reasoner.
- Abstract(参考訳): AIの最近の進歩とその適用性は、法的、倫理的、さらには商業的理由に対する信頼性を確保する必要性を強調している。
LLMのようなサブシンボリック機械学習アルゴリズムは、推論をシミュレートするが幻覚的であり、その決定は説明できない。
一方、Cycのようなルールベースの推論器は、推論ステップの連鎖を提供することができるが、複雑であり、多くの推論器を使用する。
そこで本研究では,信頼性と説明可能な人間スタイルのコモンセンス推論をエミュレートする機構を少数備えた,目標指向の制約ベースの応答セットプログラミング推論器であるs(CASP)を用いた中間層を提案する。
本稿では,Doug Lenat と Gary Marcus (2023) が導入した信頼に値するAIのための 16 のデシラタを s(CASP) がどのようにサポートするかを説明する。
s(CASP)の実現可能性と相乗効果を説明するために,対話型チャットボットや仮想的具体的推論器など,多様なアプリケーションを提案する。
関連論文リスト
- Towards A Litmus Test for Common Sense [5.280511830552275]
この論文は、安全で有益な人工知能への道を構想するシリーズの第2弾となる。
我々は,最小の事前知識制約と対角的あるいはゴドネル的な議論を組み合わせた公理的アプローチを用いて,より形式的なリトマステストを提案する。
論文 参考訳(メタデータ) (2025-01-17T02:02:12Z) - Artificial Expert Intelligence through PAC-reasoning [21.91294369791479]
人工知能(AEI)は、人工知能(AGI)と狭義のAIの両方の限界を超越しようとしている。
AEIは、ドメイン固有の専門知識と、トップヒューマンの専門家と同様、批判的で正確な推論能力を統合することを目指している。
論文 参考訳(メタデータ) (2024-12-03T13:25:18Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - The Case Against Explainability [8.991619150027264]
法律における理性評価の役割を満足させるために,エンドユーザー説明責任の欠如を示す。
エンドユーザの説明責任は第4の機能に優れており、これは重大なリスクを生じさせる。
この研究は、規制当局と機械学習の実践者たちに、エンドユーザー説明可能性の幅広い追求を再考するよう呼びかける。
論文 参考訳(メタデータ) (2023-05-20T10:56:19Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。