論文の概要: Abductive Computational Systems: Creative Abduction and Future Directions
- arxiv url: http://arxiv.org/abs/2507.08264v1
- Date: Fri, 11 Jul 2025 02:21:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.224572
- Title: Abductive Computational Systems: Creative Abduction and Future Directions
- Title(参考訳): 減算計算システム:創造的減算と今後の方向性
- Authors: Abhinav Sood, Kazjon Grace, Stephen Wan, Cecile Paris,
- Abstract要約: 帰納的推論は科学、デザイン、芸術の文脈でしばしば言及される。
本稿では, 理論的科学と設計において, 帰納的推論がどのように議論されているのかを概観し, 様々な計算システムが帰納的推論をどのように利用するかを分析する。
- 参考スコア(独自算出の注目度): 4.315465190486744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abductive reasoning, reasoning for inferring explanations for observations, is often mentioned in scientific, design-related and artistic contexts, but its understanding varies across these domains. This paper reviews how abductive reasoning is discussed in epistemology, science and design, and then analyses how various computational systems use abductive reasoning. Our analysis shows that neither theoretical accounts nor computational implementations of abductive reasoning adequately address generating creative hypotheses. Theoretical frameworks do not provide a straightforward model for generating creative abductive hypotheses, computational systems largely implement syllogistic forms of abductive reasoning. We break down abductive computational systems into components and conclude by identifying specific directions for future research that could advance the state of creative abductive reasoning in computational systems.
- Abstract(参考訳): 帰納的推論(英: Abductive reasoning, reasoning for infering explanations for Observations)は、科学的、デザイン的、芸術的な文脈においてしばしば言及されるが、その理解はこれらの領域によって異なる。
本稿では, 帰納的推論が認識学, 科学, 設計においてどのように議論されるか, そして, 様々な計算システムが帰納的推論をどのように利用するかを分析する。
本分析は, 帰納的推論の理論的説明や計算的実装が, 創造的仮説の生成に適切に対応していないことを示す。
理論的なフレームワークは、創造的な帰納的仮説を生成するための直接的なモデルを提供していないが、計算システムは主に、帰納的推論のシロジックな形式を実装している。
我々は、帰納的計算システムをコンポーネントに分割し、計算システムにおける創造的帰納的推論の状態を推し進める、将来の研究のための特定の方向を特定することで結論付ける。
関連論文リスト
- Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Advancing Abductive Reasoning in Knowledge Graphs through Complex Logical Hypothesis Generation [43.26412690886471]
本稿では,知識グラフを用いた帰納的論理的推論への最初のステップとして,複雑な論理的仮説生成の課題を紹介する。
教師付き学習された生成モデルは、参照仮説に構造的に近い論理仮説を生成することができる。
本稿では, 知識グラフによる強化学習(Reinforcement Learning from Knowledge Graph, RLF-KG)手法を提案する。
論文 参考訳(メタデータ) (2023-12-25T08:06:20Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Non-Axiomatic Term Logic: A Computational Theory of Cognitive Symbolic
Reasoning [3.344997561878685]
非軸性項論理(非軸性項論理、Non-Axiomatic Term Logic、NATL)は、人工知能における人間のような記号的推論の理論的計算フレームワークである。
NATLは、アリストテレスの項論理から着想を得た離散構文体系と、分散表現の現代的な考え方に基づく連続意味体系を結合する。
論文 参考訳(メタデータ) (2022-10-12T15:31:35Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Joint Abductive and Inductive Neural Logical Reasoning [44.36651614420507]
結合誘導型および誘導型ニューラル論理推論(AI-NLR)の問題点を定式化する。
まず、概念の源を提供するために、記述論理に基づく存在論的公理を組み込む。
そして、概念とクエリをファジィ集合として表現し、すなわち、要素がメンバシップの度合いを持つ集合を概念とクエリをエンティティでブリッジする。
論文 参考訳(メタデータ) (2022-05-29T07:41:50Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - On Semantic Cognition, Inductive Generalization, and Language Models [0.2538209532048867]
私の研究は、自然言語のみを予測するために訓練されたニューラルネットワークモデル(言語モデルまたはLM)における意味的知識の理解に焦点を当てています。
そこで,本研究では,人間による背景知識の活用,帰納的跳躍,概念とその特性に関する新たな情報からの一般化,といった現象に着想を得た枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-04T03:19:52Z) - Explaining AI as an Exploratory Process: The Peircean Abduction Model [0.2676349883103404]
帰納的推論は様々な方法で定義されてきた。
帰納的推論の実装の課題と説明プロセスの自動化の課題は密接に関連している。
この分析は、XAI研究者がすでに行っていることを理解するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-09-30T17:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。