論文の概要: Understanding in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2101.06573v1
- Date: Sun, 17 Jan 2021 02:29:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:18:31.122971
- Title: Understanding in Artificial Intelligence
- Title(参考訳): 人工知能の理解
- Authors: Stefan Maetschke and David Martinez Iraola and Pieter Barnard and
Elaheh ShafieiBavani and Peter Zhong and Ying Xu and Antonio Jimeno Yepes
- Abstract要約: 我々は,AI手法の理解能力を測定するため,ベンチマーク開発における進歩を示す。
現在のメソッドが理解能力を開発する方法も検討します。
- 参考スコア(独自算出の注目度): 10.113757840350727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Artificial Intelligence (AI) methods, most based on deep learning,
have facilitated progress in several fields, including computer vision and
natural language understanding. The progress of these AI methods is measured
using benchmarks designed to solve challenging tasks, such as visual question
answering. A question remains of how much understanding is leveraged by these
methods and how appropriate are the current benchmarks to measure understanding
capabilities. To answer these questions, we have analysed existing benchmarks
and their understanding capabilities, defined by a set of understanding
capabilities, and current research streams. We show how progress has been made
in benchmark development to measure understanding capabilities of AI methods
and we review as well how current methods develop understanding capabilities.
- Abstract(参考訳): 現在の人工知能(AI)手法は、主にディープラーニングに基づいており、コンピュータビジョンや自然言語理解など、いくつかの分野で進歩を促している。
これらのAI手法の進歩は、視覚的質問応答などの課題を解決するために設計されたベンチマークを用いて測定される。
これらの方法によってどの程度の理解が活用されているか、現在のベンチマークが理解能力を測定するのにどの程度適切か、といった疑問が残る。
これらの疑問に答えるために、既存のベンチマークとその理解能力を、一連の理解能力と現在の研究ストリームで定義した。
我々は、AI手法の理解能力を測定するためのベンチマーク開発における進歩と、現在の手法が理解能力をいかに発展させるかをレビューする。
関連論文リスト
- Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - Toward enriched Cognitive Learning with XAI [44.99833362998488]
本稿では,人工知能(AI)ツールによる認知学習のためのインテリジェントシステム(CL-XAI)を提案する。
CL-XAIの使用は、学習者が問題解決スキルを高めるために問題に取り組むゲームインスパイアされた仮想ユースケースで説明される。
論文 参考訳(メタデータ) (2023-12-19T16:13:47Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Towards Benchmarking Explainable Artificial Intelligence Methods [0.0]
我々は、ニューラルネットワークによって推進される決定を説明する方法から、科学理論の哲学を、期待できるもの、期待できないものを明らかにすることを目的として分析レンズとして利用する。
ケーススタディにより、動物とヘッドギアの2つの常在領域における説明可能性法の性能の選択について検討した。
これらの手法の有用性は、人間のドメイン知識と、理解し、一般化し、理性に頼っている、と私たちはうなずく。
論文 参考訳(メタデータ) (2022-08-25T14:28:30Z) - Process Knowledge-infused Learning for Suicidality Assessment on Social
Media [14.362199192484006]
現在の手法は、データからラベルを予測する従来のパイプラインに依存している。
説明可能なAI(XAI)モデルを使用したラベル予測のためのデータに関するポストホックな説明は、エンドユーザに多くを望まれている。
PK-iLは構造化プロセスの知識を利用して、エンドユーザーにとって理にかなう予測プロセスを明確に説明する。
論文 参考訳(メタデータ) (2022-04-26T19:43:41Z) - Towards Explainable Artificial Intelligence in Banking and Financial
Services [0.0]
説明可能な人工知能(XAI)の手法とツールを用いた最近の研究を研究・分析する。
我々は,高レベルの学習性能を維持しつつ,説明可能なモデルの作成を容易にする新しいXAIプロセスを導入する。
我々は,アルゴリズム結果との対話を容易にするデジタルダッシュボードを開発した。
論文 参考訳(メタデータ) (2021-12-14T08:02:13Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。