論文の概要: Evaluating Machine Learning Approaches for ASCII Art Generation
- arxiv url: http://arxiv.org/abs/2503.14375v1
- Date: Tue, 18 Mar 2025 16:07:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:14:14.197131
- Title: Evaluating Machine Learning Approaches for ASCII Art Generation
- Title(参考訳): ASCIIアート生成のための機械学習手法の評価
- Authors: Sai Coumar, Zachary Kingston,
- Abstract要約: 本稿では、構造化されたASCIIアートを生成するための最新の機械学習手法の適用について検討する。
我々は、忠実度、文字分類精度、出力品質の3つの重要な基準に焦点を当てる。
以上の結果から、複雑なニューラルネットワークアーキテクチャは、高品質のASCIIアートの作成に不足することが多いことが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Generating structured ASCII art using computational techniques demands a careful interplay between aesthetic representation and computational precision, requiring models that can effectively translate visual information into symbolic text characters. Although Convolutional Neural Networks (CNNs) have shown promise in this domain, the comparative performance of deep learning architectures and classical machine learning methods remains unexplored. This paper explores the application of contemporary ML and DL methods to generate structured ASCII art, focusing on three key criteria: fidelity, character classification accuracy, and output quality. We investigate deep learning architectures, including Multilayer Perceptrons (MLPs), ResNet, and MobileNetV2, alongside classical approaches such as Random Forests, Support Vector Machines (SVMs) and k-Nearest Neighbors (k-NN), trained on an augmented synthetic dataset of ASCII characters. Our results show that complex neural network architectures often fall short in producing high-quality ASCII art, whereas classical machine learning classifiers, despite their simplicity, achieve performance similar to CNNs. Our findings highlight the strength of classical methods in bridging model simplicity with output quality, offering new insights into ASCII art synthesis and machine learning on image data with low dimensionality.
- Abstract(参考訳): 構造化されたASCIIアートを計算技術を用いて生成するには、美的表現と計算精度の間の注意深い相互作用が必要であり、視覚情報を記号的な文字に効果的に翻訳できるモデルが必要である。
畳み込みニューラルネットワーク(CNN)はこの領域で有望であるが、ディープラーニングアーキテクチャと古典的な機械学習手法の比較性能はいまだに未解明である。
本稿では,現代MLおよびDL手法による構造化ASCIIアートの生成について検討し,忠実度,文字分類精度,出力品質の3つの重要な基準に焦点をあてる。
我々は,多層パーセプトロン(MLP)やResNet,MobileNetV2などのディープラーニングアーキテクチャを,ASCII文字の合成データセットをトレーニングしたランダムフォレスト,サポートベクトルマシン(SVM),k-Nearest Neighbors(k-NN)といった古典的なアプローチとともに検討する。
以上の結果から,複雑なニューラルネットワークアーキテクチャは高品質のASCIIアートを生成できない場合が多いが,従来の機械学習分類器は単純だが,CNNと類似した性能を実現していることがわかった。
本研究は,ASCIIアート合成と低次元画像データに対する機械学習の新たな洞察を提供するとともに,モデル簡易化における古典的手法の強みを強調した。
関連論文リスト
- Multimodal Structure-Aware Quantum Data Processing [0.8287206589886879]
マルチモーダル画像データを用いた構造認識データ処理のためのフレームワークを開発する。
構造」とは、言語における構文的・文法的関係や、画像における視覚的要素の階層的構造を指す。
メインストリーム画像分類タスクでテストすると,従来のモデルと同等の性能を示した。
論文 参考訳(メタデータ) (2024-11-06T20:11:19Z) - Visual Perception in Text Strings [24.60102607739684]
本研究では,ASCIIアートを代表的アーティファクトとして選択し,各概念を表現するための線と明るさを文字で表現する。
評価データセットを構築することにより,このタスクにおけるモデル性能をベンチマークし,モデルの視覚的知覚能力を引き出すためのトレーニングセットを収集する。
その結果、人間は100%近い精度を達成できるが、最先端のLSMとMLLMははるかに遅れていることがわかった。
論文 参考訳(メタデータ) (2024-10-02T16:46:01Z) - Adinkra Symbol Recognition using Classical Machine Learning and Deep
Learning [0.0]
我々は、6つの畳み込み層、3つの完全連結層、オプションのドロップアウト正規化を用いて、分類と認識のためのCNNモデルを構築した。
モデルの精度と収束率を測定することにより,モデルの性能を評価する。
この応用が、私たちの伝統的かつモダンな生活を組織する上で、AIのさまざまな用途に関するアイデアを刺激することを期待しています。
論文 参考訳(メタデータ) (2023-11-27T11:26:41Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - GIT: A Generative Image-to-text Transformer for Vision and Language [138.91581326369837]
我々は、画像/映像キャプションや質問応答などの視覚言語タスクを統合するために、生成画像からテキストへ変換するGITを訓練する。
われわれのモデルはTextCaps(CIDErで138.2対125.5)で初めて人間のパフォーマンスを上回った。
論文 参考訳(メタデータ) (2022-05-27T17:03:38Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Image Classification with Classic and Deep Learning Techniques [0.0]
従来のコンピュータビジョンとディープラーニング技術を用いて画像分類器を実装した。
それぞれのケースを精度と損失の観点から評価し,使用するモデルと構成によって0.6から0.09の範囲で結果を得た。
論文 参考訳(メタデータ) (2021-05-11T09:32:38Z) - Scaling Up Visual and Vision-Language Representation Learning With Noisy
Text Supervision [57.031588264841]
高価なフィルタリングや後処理のステップを使わずに得られる10億以上の画像アルトテキストペアのノイズの多いデータセットを活用します。
単純なデュアルエンコーダアーキテクチャは、画像とテキストペアの視覚的および言語的表現を、対照的な損失を使って整列させることを学ぶ。
コーパスのスケールはノイズを補うことができ、そのような単純な学習方式であっても最先端の表現に繋がることを示す。
論文 参考訳(メタデータ) (2021-02-11T10:08:12Z) - Synbols: Probing Learning Algorithms with Synthetic Datasets [112.45883250213272]
Synbolsは、低解像度画像にレンダリングされた潜在機能のリッチな構成で、新しいデータセットを高速に生成するツールである。
ツールの高レベルインターフェースは、潜在機能で新しいディストリビューションを高速に生成するための言語を提供する。
Synbolsの汎用性を示すために,各種学習環境における標準学習アルゴリズムの限界と欠陥を識別するために,本手法を用いる。
論文 参考訳(メタデータ) (2020-09-14T13:03:27Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。