論文の概要: A Survey on Compositional Learning of AI Models: Theoretical and Experimental Practices
- arxiv url: http://arxiv.org/abs/2406.08787v2
- Date: Thu, 21 Nov 2024 00:54:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-22 15:16:25.542883
- Title: A Survey on Compositional Learning of AI Models: Theoretical and Experimental Practices
- Title(参考訳): AIモデルの構成学習に関する理論的・実験的考察
- Authors: Sania Sinha, Tanawan Premsri, Parisa Kordjamshidi,
- Abstract要約: 構成学習は人間の認知、特に人間の言語理解と視覚知覚において重要である。
インテリジェンスにおいて重要な役割を担っているにもかかわらず、体系的な理論的、実験的研究方法論が欠如している。
本稿では,AIモデルの構成学習に関する文献と,認知研究との関わりについて考察する。
- 参考スコア(独自算出の注目度): 15.92779896185647
- License:
- Abstract: Compositional learning, mastering the ability to combine basic concepts and construct more intricate ones, is crucial for human cognition, especially in human language comprehension and visual perception. This notion is tightly connected to generalization over unobserved situations. Despite its integral role in intelligence, there is a lack of systematic theoretical and experimental research methodologies, making it difficult to analyze the compositional learning abilities of computational models. In this paper, we survey the literature on compositional learning of AI models and the connections made to cognitive studies. We identify abstract concepts of compositionality in cognitive and linguistic studies and connect these to the computational challenges faced by language and vision models in compositional reasoning. We overview the formal definitions, tasks, evaluation benchmarks, various computational models, and theoretical findings. Our primary focus is on linguistic benchmarks and combining language and vision, though there is a large amount of research on compositional concept learning in the computer vision community alone. We cover modern studies on large language models to provide a deeper understanding of the cutting-edge compositional capabilities exhibited by state-of-the-art AI models and pinpoint important directions for future research.
- Abstract(参考訳): 基本的な概念を組み合わせてより複雑な概念を構築する能力を習得する構成学習は、人間の認知、特に人間の言語理解と視覚知覚において不可欠である。
この概念は、観測されていない状況に対する一般化と密接に関連している。
インテリジェンスにおいて重要な役割を担っているにもかかわらず、体系的な理論的、実験的研究手法が欠如しており、計算モデルの構成学習能力を解析することは困難である。
本稿では,AIモデルの構成学習に関する文献と,認知研究との関連について調査する。
我々は、認知言語学における構成性の抽象概念を識別し、これらを合成推論において言語や視覚モデルが直面する計算課題に結びつける。
本稿では, 形式的定義, タスク, 評価ベンチマーク, 各種計算モデル, 理論的知見について概説する。
我々の主な焦点は、言語ベンチマークと言語と視覚の組み合わせであるが、コンピュータビジョンコミュニティだけでは、構成概念学習に関する多くの研究がある。
我々は、最先端のAIモデルによって示される最先端の合成能力をより深く理解するために、大規模言語モデルに関する最新の研究をカバーし、将来の研究にとって重要な方向を示す。
関連論文リスト
- What Machine Learning Tells Us About the Mathematical Structure of Concepts [0.0]
この研究は、各フレームワークがどのようにモデリング概念に対して明確な数学的視点を提供するかを強調している。
この研究は、人間の認知と人工知能の複雑な関係の理解を深めることを目的として、学際対話の重要性を強調している。
論文 参考訳(メタデータ) (2024-08-28T03:30:22Z) - From Frege to chatGPT: Compositionality in language, cognition, and deep neural networks [0.0]
我々は、哲学、認知科学、神経科学の幅広い読者のために、機械学習による最近の経験的研究をレビューする。
特に,我々は,合成一般化機能を備えたニューラルネットワークを実現するための2つのアプローチを強調した。
これらの発見が人間の認知における構成性の研究にもたらす意味について論じる。
論文 参考訳(メタデータ) (2024-05-24T02:36:07Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - In-Context Analogical Reasoning with Pre-Trained Language Models [10.344428417489237]
我々は、AIシステムにおけるアナロジーを支援するために、直感的な言語ベースの抽象化の使用について検討する。
具体的には,大規模事前学習言語モデル(PLM)を視覚的Raven's Progressive Matrices(RPM)に適用する。
PLMはゼロショットリレーショナル推論に顕著な能力を示し、人間のパフォーマンスを超え、教師付き視覚ベースの手法に近づいた。
論文 参考訳(メタデータ) (2023-05-28T04:22:26Z) - Acquiring and Modelling Abstract Commonsense Knowledge via Conceptualization [49.00409552570441]
本研究では,コモンセンス推論における概念化の役割について検討し,人間の概念化を再現する枠組みを定式化する。
ATOMIC は大規模な人為的注釈付き CKG であり,この枠組みを分類プロベースで支援している。
論文 参考訳(メタデータ) (2022-06-03T12:24:49Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Modelling Compositionality and Structure Dependence in Natural Language [0.12183405753834563]
言語学と集合論に基づいて、これらの概念の形式化がこの論文の前半で述べられている。
言語処理を行う認知システムは,特定の機能的制約を持つ必要がある。
単語埋め込み技術の進歩を利用して、関係学習のモデルがシミュレートされる。
論文 参考訳(メタデータ) (2020-11-22T17:28:50Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。