論文の概要: Deep Algorithmic Question Answering: Towards a Compositionally Hybrid AI
for Algorithmic Reasoning
- arxiv url: http://arxiv.org/abs/2109.08006v1
- Date: Thu, 16 Sep 2021 14:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 14:00:35.758404
- Title: Deep Algorithmic Question Answering: Towards a Compositionally Hybrid AI
for Algorithmic Reasoning
- Title(参考訳): Deep Algorithmic Question Answering: アルゴリズム推論のための合成ハイブリッドAIを目指して
- Authors: Kwwabena Nuamah
- Abstract要約: 問題の解答におけるアルゴリズム推論の課題は、AIに対する"システム"アプローチに効果的に取り組むことができる、と我々は主張する。
本稿では,QA,Deep Algorithmic Question Answeringのためのアルゴリズム推論手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important aspect of artificial intelligence (AI) is the ability to reason
in a step-by-step "algorithmic" manner that can be inspected and verified for
its correctness. This is especially important in the domain of question
answering (QA). We argue that the challenge of algorithmic reasoning in QA can
be effectively tackled with a "systems" approach to AI which features a hybrid
use of symbolic and sub-symbolic methods including deep neural networks.
Additionally, we argue that while neural network models with end-to-end
training pipelines perform well in narrow applications such as image
classification and language modelling, they cannot, on their own, successfully
perform algorithmic reasoning, especially if the task spans multiple domains.
We discuss a few notable exceptions and point out how they are still limited
when the QA problem is widened to include other intelligence-requiring tasks.
However, deep learning, and machine learning in general, do play important
roles as components in the reasoning process. We propose an approach to
algorithm reasoning for QA, Deep Algorithmic Question Answering (DAQA), based
on three desirable properties: interpretability, generalizability and
robustness which such an AI system should possess and conclude that they are
best achieved with a combination of hybrid and compositional AI.
- Abstract(参考訳): 人工知能(AI)の重要な側面は、その正しさを検査し検証できるステップバイステップの「アルゴリズム」的な推論能力である。
これは質問応答(QA)の領域において特に重要である。
QAにおけるアルゴリズム推論の課題は、ディープニューラルネットワークを含むシンボル的およびサブシンボル的手法のハイブリッド利用を特徴とする、AIに対する"システム"アプローチに効果的に取り組むことができる、と我々は主張する。
さらに,エンド・ツー・エンドのトレーニングパイプラインを持つニューラルネットワークモデルは,画像分類や言語モデリングといった狭義のアプリケーションではうまく機能するが,タスクが複数の領域にまたがる場合には,それ自体ではアルゴリズム推論をうまく実行できないと主張する。
我々は、いくつかの注目すべき例外を議論し、QA問題が他の知能要求タスクを含むように拡張されたときに、それらがまだ制限されていることを指摘した。
しかし、ディープラーニングと機械学習全般は、推論プロセスの構成要素として重要な役割を果たす。
このようなaiシステムが持つべき解釈性、一般化性、頑健性という3つの望ましい性質に基づいて、qa、深層アルゴリズム的質問応答(daqa)のアルゴリズム推論のアプローチを提案し、ハイブリッドaiと合成aiの組み合わせで最も達成されると結論づける。
関連論文リスト
- Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Efficient Parallel Multi-Hop Reasoning: A Scalable Approach for Knowledge Graph Analysis [0.0]
マルチホップ推論(MHR)は様々な応用において重要な機能である。
本稿では,大規模グラフ上での時間効率の最適化に焦点をあてる。
ドメイン固有の学習埋め込みを利用する新しい並列アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T21:12:34Z) - Cognition is All You Need -- The Next Layer of AI Above Large Language
Models [0.0]
我々は,大規模言語モデル以外のニューロシンボリック認知のためのフレームワークであるCognitive AIを紹介する。
我々は、認知AIがAGIのようなAI形態の進化に必須の先駆者であり、AGIは独自の確率論的アプローチでは達成できないと主張する。
我々は、大規模言語モデル、AIの採用サイクル、および商用の認知AI開発に関する議論で締めくくります。
論文 参考訳(メタデータ) (2024-03-04T16:11:57Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - The Clock and the Pizza: Two Stories in Mechanistic Explanation of
Neural Networks [59.26515696183751]
ニューラルネットワークにおけるアルゴリズム発見は、時としてより複雑であることを示す。
単純な学習問題でさえ、驚くほど多様なソリューションを許容できることが示されています。
論文 参考訳(メタデータ) (2023-06-30T17:59:13Z) - TaskMatrix.AI: Completing Tasks by Connecting Foundation Models with
Millions of APIs [71.7495056818522]
私たちは、基礎モデルと数百万のAPIを結合してタスク補完を行う、新しいAIエコシステムとしてTaskMatrix.AIを紹介します。
このようなエコシステムを構築するためのビジョンを示し、それぞれの重要なコンポーネントを説明し、このビジョンの実現可能性と次に取り組むべき主な課題の両方を説明するために研究ケースを使用します。
論文 参考訳(メタデータ) (2023-03-29T03:30:38Z) - Utilizing Background Knowledge for Robust Reasoning over Traffic
Situations [63.45021731775964]
我々は、インテリジェントトランスポーテーションの補完的な研究側面である交通理解に焦点を当てる。
本研究は,豊富なコモンセンス知識を前提として,テキストベースの手法とデータセットを対象とする。
交通状況に対するゼロショットQAには3つの知識駆動アプローチを採用しています。
論文 参考訳(メタデータ) (2022-12-04T09:17:24Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z) - Problems in AI research and how the SP System may help to solve them [0.0]
本稿では,AI研究における問題点と,SPシステムがそれらをどのように解決するかについて述べる。
問題のほとんどは、科学作家のMartin Ford氏へのインタビューで、AIの先導的な研究者によって説明されている。
論文 参考訳(メタデータ) (2020-09-02T11:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。