論文の概要: Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning
- arxiv url: http://arxiv.org/abs/2010.00763v4
- Date: Mon, 4 Jan 2021 21:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 00:22:40.515815
- Title: Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning
- Title(参考訳): Bongard-LOGO: ヒューマンレベル概念学習と推論のための新しいベンチマーク
- Authors: Weili Nie, Zhiding Yu, Lei Mao, Ankit B. Patel, Yuke Zhu, Animashree
Anandkumar
- Abstract要約: ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
- 参考スコア(独自算出の注目度): 78.13740873213223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have an inherent ability to learn novel concepts from only a few
samples and generalize these concepts to different situations. Even though
today's machine learning models excel with a plethora of training data on
standard recognition tasks, a considerable gap exists between machine-level
pattern recognition and human-level concept learning. To narrow this gap, the
Bongard problems (BPs) were introduced as an inspirational challenge for visual
cognition in intelligent systems. Despite new advances in representation
learning and learning to learn, BPs remain a daunting challenge for modern AI.
Inspired by the original one hundred BPs, we propose a new benchmark
Bongard-LOGO for human-level concept learning and reasoning. We develop a
program-guided generation technique to produce a large set of
human-interpretable visual cognition problems in action-oriented LOGO language.
Our benchmark captures three core properties of human cognition: 1)
context-dependent perception, in which the same object may have disparate
interpretations given different contexts; 2) analogy-making perception, in
which some meaningful concepts are traded off for other meaningful concepts;
and 3) perception with a few samples but infinite vocabulary. In experiments,
we show that the state-of-the-art deep learning methods perform substantially
worse than human subjects, implying that they fail to capture core human
cognition properties. Finally, we discuss research directions towards a general
architecture for visual reasoning to tackle this benchmark.
- Abstract(参考訳): 人間は、少数のサンプルから新しい概念を学び、これらの概念を異なる状況に一般化する能力を持っている。
今日の機械学習モデルは、標準的な認識タスクのトレーニングデータを多用しているが、マシンレベルのパターン認識と人間レベルの概念学習の間には、かなりのギャップがある。
このギャップを狭めるために、ボナード問題(BP)は知的システムにおける視覚的認知へのインスピレーションとして導入された。
表現学習と学習の新たな進歩にもかかわらず、BPは現代のAIにとって驚くべき課題である。
従来の100BPにヒントを得て,人間レベルの概念学習と推論のためのベンチマークBongard-LOGOを提案する。
我々は,アクション指向のLOGO言語において,人間の解釈可能な視覚認知問題を多数生成するプログラム誘導生成手法を開発した。
私たちのベンチマークは、人間の認知の3つのコア特性を捉えています。
1) 同一の対象が異なる文脈によって異なる解釈を持つことができる文脈依存の知覚
2) 有意義な概念が他の有意義な概念と交換される類推的知覚
3) 少数のサンプルを持つが無限語彙の知覚。
実験では,最先端の深層学習手法が人体よりも著しく優れており,中核的な人間の認知特性を捉えることができないことが示唆された。
最後に、このベンチマークに取り組むための視覚的推論のための汎用アーキテクチャに向けた研究の方向性について論じる。
関連論文リスト
- Vision Language Models See What You Want but not What You See [9.268588981925234]
他人の意図を知り、他人の視点をとることは、人間の知性の2つの中核的な構成要素である。
本稿では,視覚言語モデルにおける意図理解と視点獲得について考察する。
意外なことに、VLMは意図的理解では高いパフォーマンスを達成できるが、視点決定では低いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-10-01T01:52:01Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Evaluating Understanding on Conceptual Abstraction Benchmarks [0.0]
AIの長期的な目標は、人間のような方法で概念を理解するシステムを構築することである。
概念を理解するには、さまざまなコンテキストでそれを使う能力が必要である、と私たちは主張する。
我々の概念に基づく評価アプローチは、従来のテストセットが隠したはずのAIシステムに関する情報を明らかにする。
論文 参考訳(メタデータ) (2022-06-28T17:52:46Z) - Bongard-HOI: Benchmarking Few-Shot Visual Reasoning for Human-Object
Interactions [138.49522643425334]
Bongard-HOIは、自然画像からの人間と物体の相互作用の合成学習に焦点を当てた、新しい視覚的推論ベンチマークである。
古典的ボナード問題(BP)の2つの望ましい特徴に着想を得たものである。
Bongard-HOIは、今日の視覚認識モデルに重大な課題を提示している。
論文 参考訳(メタデータ) (2022-05-27T07:36:29Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - HALMA: Humanlike Abstraction Learning Meets Affordance in Rapid Problem
Solving [104.79156980475686]
人間は自然主義的タスクの構造に応じて構成的および因果的抽象化、つまり知識を学ぶ。
エージェントがその知識をどのように表現するかには、知覚、概念、アルゴリズムの3段階の一般化がある、と我々は主張する。
このベンチマークは、ビジュアルコンセプト開発と迅速な問題解決のための新しいタスクドメイン、HALMAを中心にしています。
論文 参考訳(メタデータ) (2021-02-22T20:37:01Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。