論文の概要: Solving the bongard-logo problem by modeling a probabilistic model
- arxiv url: http://arxiv.org/abs/2403.03173v2
- Date: Sat, 9 Mar 2024 18:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 17:20:36.455081
- Title: Solving the bongard-logo problem by modeling a probabilistic model
- Title(参考訳): 確率モデルによるbongard-logo問題の解法
- Authors: Ruizhuo Song, Beiming Yuan
- Abstract要約: 抽象推論問題は、AIアルゴリズムの知覚的および認知的能力に挑戦する。
本研究は、ボンガード・ローゴ問題に適した確率モデルであるPMoCを紹介する。
また、複雑な抽象的推論タスクのための拡張Transformer-EncoderであるPose-Transformerを提案する。
- 参考スコア(独自算出の注目度): 2.12121796606941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstract reasoning problems challenge the perceptual and cognitive abilities
of AI algorithms, demanding deeper pattern discernment and inductive reasoning
beyond explicit image features. This study introduces PMoC, a tailored
probability model for the Bongard-Logo problem, achieving high reasoning
accuracy by constructing independent probability models. Additionally, we
present Pose-Transformer, an enhanced Transformer-Encoder designed for complex
abstract reasoning tasks, including Bongard-Logo, RAVEN, I-RAVEN, and PGM.
Pose-Transformer incorporates positional information learning, inspired by
capsule networks' pose matrices, enhancing its focus on local positional
relationships in image data processing. When integrated with PMoC, it further
improves reasoning accuracy. Our approach effectively addresses reasoning
difficulties associated with abstract entities' positional changes,
outperforming previous models on the OIG, D3$\times$3 subsets of RAVEN, and PGM
databases. This research contributes to advancing AI's capabilities in abstract
reasoning and cognitive pattern recognition.
- Abstract(参考訳): 抽象推論問題は、AIアルゴリズムの知覚的および認知的能力に挑戦し、明示的な画像特徴以上のパターン識別と帰納的推論を要求する。
本研究は, ボナード・ローゴ問題に適した確率モデルであるPMoCを導入し, 独立確率モデルを構築して高い推論精度を実現する。
さらに,bongard-logo,raven,i-raven,pgmなど,複雑な抽象推論タスク用に設計された拡張トランスフォーマトランスフォーマを提案する。
Pose-Transformerは、カプセルネットワークのポーズ行列にインスパイアされた位置情報学習を取り入れ、画像データ処理における局所的な位置関係に焦点を当てる。
PMoCと統合すると、推論精度がさらに向上する。
提案手法は,抽象エンティティの位置変化に伴う推論の難しさを効果的に解決し,OIG,D3$\times$3サブセットのRAVEN,PGMデータベース上でのモデルよりも優れている。
この研究は、抽象的推論と認知パターン認識におけるAIの能力向上に寄与する。
関連論文リスト
- Analyzing the Quality Attributes of AI Vision Models in Open Repositories Under Adversarial Attacks [7.500941533148728]
敵対的攻撃は、AIモデルの堅牢性と説明可能性に対する潜在的な脅威である。
XAIは、入力を近似したアルゴリズムをポストホック出力に適用し、貢献する特徴を識別する。
本稿では,下流評価タスクのための統合プロセスを提案する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Enhancing the Fairness and Performance of Edge Cameras with Explainable
AI [3.4719449211802456]
本研究では,モデルデバッグに Explainable AI (XAI) を用いた診断手法を提案する。
トレーニングデータセットが主なバイアス源であることに気付き、ソリューションとしてモデル拡張を提案しました。
論文 参考訳(メタデータ) (2024-01-18T10:08:24Z) - Spatial-Temporal Enhanced Transformer Towards Multi-Frame 3D Object
Detection [59.03596380773798]
我々は、DETRのようなパラダイムに基づいた、多フレーム3Dオブジェクト検出のための新しいエンドツーエンドフレームワークであるSTEMDを提案する。
具体的には、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
我々は,計算オーバーヘッドをわずかに加えるだけで,難解なシナリオに対処する手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Explain by Evidence: An Explainable Memory-based Neural Network for
Question Answering [41.73026155036886]
本稿では,エビデンスに基づくメモリネットワークアーキテクチャを提案する。
データセットを要約し、その決定を下すための証拠を抽出することを学ぶ。
本モデルは,2つの質問応答データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-11-05T21:18:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。