論文の概要: Cluster automata
- arxiv url: http://arxiv.org/abs/2503.22000v1
- Date: Thu, 27 Mar 2025 21:36:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:28:52.507656
- Title: Cluster automata
- Title(参考訳): クラスタオートマトン
- Authors: András Kornai,
- Abstract要約: クラスタ化されたムーアオートマトン(CMA)の新たなクラスを導入する。
それらの時間的挙動を調査し,いくつかの応用について述べる。
CMAはクラスタ化されたムーアオートマトン(CMA)の新しいクラスである
- 参考スコア(独自算出の注目度): 0.18855270809505867
- License:
- Abstract: We introduce a new class of clustered Moore automata (CMA), investigate their temporal behavior, and describe some applications.
- Abstract(参考訳): クラスタ化されたムーアオートマトン(CMA)の新たなクラスを導入し,その時間的挙動を調査し,いくつかの応用について述べる。
関連論文リスト
- Extreme AutoML: Analysis of Classification, Regression, and NLP Performance [0.19791587637442667]
Extreme Learning Machines (ELMs) は基本的に異なるタイプのニューラルアーキテクチャを使用し、計算コストを大幅に削減してより良い結果をもたらす。
カリフォルニア大学アーバイン校(UCI)リポジトリのいくつかの一般的な分類データセットを使用して、Extreme AutoML技術をGoogleのAutoMLと比較した。
論文 参考訳(メタデータ) (2024-12-09T21:10:22Z) - CLAMS: A System for Zero-Shot Model Selection for Clustering [3.7127285734321194]
本稿では,最適なトランスポートベースデータセットの類似性を利用して,クラスタリング問題に対するモデル選択を可能にするAutoMLシステムを提案する。
その結果、クラスタリングアプリケーションを解決するための類似性に基づく自動モデル選択の有用性が実証された。
論文 参考訳(メタデータ) (2024-07-15T23:50:07Z) - Toward Multi-class Anomaly Detection: Exploring Class-aware Unified Model against Inter-class Interference [67.36605226797887]
統一型異常検出(MINT-AD)のためのマルチクラスインプリシトニューラル表現変換器を提案する。
マルチクラス分布を学習することにより、モデルが変換器デコーダのクラス対応クエリ埋め込みを生成する。
MINT-ADは、カテゴリと位置情報を特徴埋め込み空間に投影することができ、さらに分類と事前確率損失関数によって監督される。
論文 参考訳(メタデータ) (2024-03-21T08:08:31Z) - eCIL-MU: Embedding based Class Incremental Learning and Machine
Unlearning [30.247947612208034]
本研究では,埋め込み技術に基づく非破壊的eCIL-MUフレームワークを提案し,データをベクトルにマッピングし,ベクトルデータベースに格納する。
実験は、未学習の有効性と、アクセラレーションの桁数($sim 278times$まで)を達成する能力を示す。
論文 参考訳(メタデータ) (2024-01-04T07:18:32Z) - Boosting Prompt-Based Self-Training With Mapping-Free Automatic
Verbalizer for Multi-Class Classification [3.647905567437244]
マッピング不要な自動言語モデリングツール (MAV) という,新しい効率的な動詞体系を導入する。
MAVは、予測から利用可能な全ての情報に乗じて、分類に必要な単語の特徴を自動的に抽出する訓練可能な発声器として機能する。
5つの多クラス分類データセットの実験結果は、MAVの優れた自己学習効果を示している。
論文 参考訳(メタデータ) (2023-12-08T11:43:00Z) - Self-Supervised Open-Ended Classification with Small Visual Language
Models [60.23212389067007]
我々は、小さな視覚言語モデルを用いたオープンエンド分類のための数ショットの能力を解放する自己教師型アプローチであるSeCAtを提案する。
約1Bパラメータを持つモデルを使用することで、FrozenやBrobAGeといった、はるかに大きなモデルの少数ショット能力より優れています。
論文 参考訳(メタデータ) (2023-09-30T21:41:21Z) - Large Language Models Enable Few-Shot Clustering [88.06276828752553]
大規模言語モデルは、クエリ効率が良く、数発のセミ教師付きテキストクラスタリングを可能にするために、専門家のガイダンスを増幅できることを示す。
最初の2つのステージにLSMを組み込むことで、クラスタの品質が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2023-07-02T09:17:11Z) - Semantic Code Classification for Automated Machine Learning [0.0]
セマンティックコードクラスと呼ばれる単純なアクションのシーケンスを通じて出力を制御する方法を提案する。
本稿では,自然言語から機械学習(NL2ML)データセットにおいて,意味的コード分類タスクを提案し,この問題を解決する方法について議論する。
論文 参考訳(メタデータ) (2022-01-25T10:40:37Z) - Cluster-Former: Clustering-based Sparse Transformer for Long-Range
Dependency Encoding [90.77031668988661]
Cluster-Formerはクラスタリングベースの新しいスパーストランスであり、チャンクされたシーケンスにまたがって注意を向ける。
提案されたフレームワークは、Sliding-Window LayerとCluster-Former Layerの2つのユニークなタイプのTransformer Layerにピボットされている。
実験によると、Cluster-Formerはいくつかの主要なQAベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-09-13T22:09:30Z) - Induction and Exploitation of Subgoal Automata for Reinforcement
Learning [75.55324974788475]
本稿では,Regressed Learning (RL)タスクにおけるサブゴールの学習と活用のためのISAを提案する。
ISAは、タスクのサブゴールによってエッジがラベル付けされたオートマトンであるサブゴールオートマトンを誘導することで強化学習をインターリーブする。
サブゴールオートマトンはまた、タスクの完了を示す状態と、タスクが成功せずに完了したことを示す状態の2つの特別な状態で構成されている。
論文 参考訳(メタデータ) (2020-09-08T16:42:55Z) - Progressive Cluster Purification for Unsupervised Feature Learning [48.87365358296371]
教師なしの特徴学習では、サンプル特異性に基づく手法はクラス間の情報を無視する。
本稿では,プログレッシブクラスタ形成時にクラス不整合サンプルを除外するクラスタリングに基づく新しい手法を提案する。
我々の手法は、プログレッシブ・クラスタ・パーフィケーション(PCP)と呼ばれ、訓練中に徐々にクラスタ数を減らし、プログレッシブ・クラスタリングを実装している。
論文 参考訳(メタデータ) (2020-07-06T08:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。