論文の概要: Adinkra Symbol Recognition using Classical Machine Learning and Deep
Learning
- arxiv url: http://arxiv.org/abs/2311.15728v1
- Date: Mon, 27 Nov 2023 11:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 16:01:37.702411
- Title: Adinkra Symbol Recognition using Classical Machine Learning and Deep
Learning
- Title(参考訳): 古典的機械学習とディープラーニングを用いたアドインクラ記号認識
- Authors: Michael Adjeisah, Kwame Omono Asamoah, Martha Asamoah Yeboah, Raji
Rafiu King, Godwin Ferguson Achaab and Kingsley Adjei
- Abstract要約: 我々は、6つの畳み込み層、3つの完全連結層、オプションのドロップアウト正規化を用いて、分類と認識のためのCNNモデルを構築した。
モデルの精度と収束率を測定することにより,モデルの性能を評価する。
この応用が、私たちの伝統的かつモダンな生活を組織する上で、AIのさまざまな用途に関するアイデアを刺激することを期待しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) has emerged as a transformative influence,
engendering paradigm shifts in global societies, spanning academia and
industry. However, in light of these rapid advances, addressing the
underrepresentation of black communities and African countries in AI is
crucial. Boosting enthusiasm for AI can be effectively accomplished by
showcasing straightforward applications around tasks like identifying and
categorizing traditional symbols, such as Adinkra symbols, or familiar objects
within the community. In this research endeavor, we dived into classical
machine learning and harnessed the power of deep learning models to tackle the
intricate task of classifying and recognizing Adinkra symbols. The idea led to
a newly constructed ADINKRA dataset comprising 174,338 images meticulously
organized into 62 distinct classes, each representing a singular and emblematic
symbol. We constructed a CNN model for classification and recognition using six
convolutional layers, three fully connected (FC) layers, and optional dropout
regularization. The model is a simpler and smaller version of VGG, with fewer
layers, smaller channel sizes, and a fixed kernel size. Additionally, we tap
into the transfer learning capabilities provided by pre-trained models like VGG
and ResNet. These models assist us in both classifying images and extracting
features that can be used with classical machine learning models. We assess the
model's performance by measuring its accuracy and convergence rate and
visualizing the areas that significantly influence its predictions. These
evaluations serve as a foundational benchmark for future assessments of the
ADINKRA dataset. We hope this application exemplar inspires ideas on the
various uses of AI in organizing our traditional and modern lives.
- Abstract(参考訳): 人工知能(AI)は、世界社会にパラダイムシフトをもたらし、アカデミックと産業にまたがる変革的な影響として登場した。
しかし、これらの急速な進歩を踏まえて、AIにおける黒人コミュニティとアフリカ諸国の不足に対処することが不可欠である。
AIに対する熱意を高めることは、Adinkraシンボルやコミュニティ内の馴染みのあるオブジェクトなど、従来のシンボルの識別と分類といったタスクに関する簡単なアプリケーションを示すことで、効果的に達成できる。
本研究では,従来の機械学習に潜り込み,深層学習モデルの力を利用して,Adinkraシンボルの分類と認識という複雑な課題に取り組む。
このアイデアは新しく構築されたADINKRAデータセットに、174,338の画像が厳密に62の異なるクラスに分類され、それぞれが特異かつエンブレマ的なシンボルを表している。
6つの畳み込み層,3つの完全連結(FC)層,オプションのドロップアウト正規化を用いて,分類と認識のためのCNNモデルを構築した。
モデルはVGGのよりシンプルで小さなバージョンで、レイヤは少なく、チャンネルサイズも小さく、カーネルサイズも固定されている。
さらに,vggやresnetなどの事前学習モデルが提供するトランスファー学習機能を活用した。
これらのモデルは、画像の分類と、古典的な機械学習モデルで使用できる特徴の抽出の両方に役立つ。
モデルの精度と収束率を測定し,予測に大きく影響を及ぼす領域を可視化することにより,モデルの性能を評価する。
これらの評価は、ADINKRAデータセットの将来の評価のための基礎的なベンチマークとなる。
この応用が、私たちの伝統的かつモダンな生活を組織する上で、AIのさまざまな用途に関するアイデアを刺激することを期待しています。
関連論文リスト
- Shortcut Learning Susceptibility in Vision Classifiers [3.004632712148892]
ショートカット学習は、機械学習モデルが意味のある特徴をキャプチャする代わりに、データの急激な相関を利用する場所である。
この現象は、視覚、自然言語処理、音声認識など、さまざまな機械学習アプリケーションで広く利用されている。
クラスラベルと位置相関するデータセットに意図的にショートカットを導入することで,これらのアーキテクチャを体系的に評価する。
論文 参考訳(メタデータ) (2025-02-13T10:25:52Z) - Generalized Robot 3D Vision-Language Model with Fast Rendering and Pre-Training Vision-Language Alignment [55.11291053011696]
本研究は,ラベル付きシーンが極めて限定された場合の3次元シーン理解のためのフレームワークを提案する。
事前学習された視覚言語モデルから新しいカテゴリーの知識を抽出するために,階層的特徴整合型事前学習と知識蒸留戦略を提案する。
限定的な再構築の場合、提案手法はWS3D++と呼ばれ、大規模なScanNetベンチマークで1位にランクインした。
論文 参考訳(メタデータ) (2023-12-01T15:47:04Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Dense Sample Deep Learning [0.0]
ディープラーニング(DL)ネットワークの利用が増加しているにもかかわらず、学習メカニズムや表現についてはほとんど理解されていない。
本稿では,新しい高密度サンプルタスクにおいて,これらの課題を大きな (1.24M 重量; VGG) DL を用いて検討する。
本研究は,DLの学習力学に関する基礎的な知見を収集し,この結果に基づく複雑な特徴構築の新たな理論を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:21:14Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Few-Shot Class-Incremental Learning from an Open-Set Perspective [10.898784938875702]
FSCIL(Few-Shot Class-Incremental Learning)の重要な課題と,その極端なデータ不足状況について検討する。
ALICEでは、一般的に使用されるクロスエントロピー損失の代わりに、角のペナルティ損失を用いて、適切にクラスタリングされた特徴を得る方法を提案する。
CIFAR100、miniImageNet、CUB200といったベンチマークデータセットの実験では、ALICEのパフォーマンスが改善された。
論文 参考訳(メタデータ) (2022-07-30T05:42:48Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。