論文の概要: A Comparison Between Tsetlin Machines and Deep Neural Networks in the
Context of Recommendation Systems
- arxiv url: http://arxiv.org/abs/2212.10136v1
- Date: Tue, 20 Dec 2022 10:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:00:58.026315
- Title: A Comparison Between Tsetlin Machines and Deep Neural Networks in the
Context of Recommendation Systems
- Title(参考訳): 推薦システムにおけるTsetlinマシンとディープニューラルネットワークの比較
- Authors: Karl Audun Borgersen, Morten Goodwin, Jivitesh Sharma
- Abstract要約: 勧告システム(Recommendation Systems, RS)は、現代社会において広く使われており、人間とAIの相互作用の最大のポイントの1つである。
現代のRSは、しばしば深層学習モデルを用いて実装される。
新たに導入されたTsetlin Machines (TM) は、その固有の解釈可能性のために、いくつかの価値のある性質を持っている。
- 参考スコア(独自算出の注目度): 4.662321040754879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation Systems (RSs) are ubiquitous in modern society and are one of
the largest points of interaction between humans and AI. Modern RSs are often
implemented using deep learning models, which are infamously difficult to
interpret. This problem is particularly exasperated in the context of
recommendation scenarios, as it erodes the user's trust in the RS. In contrast,
the newly introduced Tsetlin Machines (TM) possess some valuable properties due
to their inherent interpretability. TMs are still fairly young as a technology.
As no RS has been developed for TMs before, it has become necessary to perform
some preliminary research regarding the practicality of such a system. In this
paper, we develop the first RS based on TMs to evaluate its practicality in
this application domain. This paper compares the viability of TMs with other
machine learning models prevalent in the field of RS. We train and investigate
the performance of the TM compared with a vanilla feed-forward deep learning
model. These comparisons are based on model performance,
interpretability/explainability, and scalability. Further, we provide some
benchmark performance comparisons to similar machine learning solutions
relevant to RSs.
- Abstract(参考訳): レコメンデーションシステム(rss)は現代社会においてユビキタスであり、人間とaiの相互作用の最大のポイントの1つである。
現代のrssは深層学習モデルを使って実装されることが多い。
この問題は、RSに対するユーザの信頼を損なうため、特にレコメンデーションシナリオの文脈で誇張されている。
対照的に、新しく導入されたTsetlin Machines (TM) は、その固有の解釈可能性のために、いくつかの価値のある性質を持っている。
TMはまだ技術としてかなり若い。
TMのためにRSは開発されていないため、そのようなシステムの実用性に関する予備的な研究を行う必要がある。
本稿では,TMをベースとした最初のRSを開発し,本アプリケーション領域における実用性を評価する。
本稿では,tmsの有効性と,rsの分野に共通する他の機械学習モデルとの比較を行った。
我々は,バニラフィードフォワード深層学習モデルと比較して,TMの性能を訓練・調査する。
これらの比較は、モデルパフォーマンス、解釈可能性/説明可能性、スケーラビリティに基づいている。
さらに、RSに関連する類似の機械学習ソリューションとベンチマーク性能の比較を行った。
関連論文リスト
- Training Neural Networks from Scratch with Parallel Low-Rank Adapters [50.171622511923474]
計算ノード間の複数の低ランクヘッドの並列トレーニングを実現するために設計された,新しい双方向最適化アルゴリズムである LoRA-the-Explorer (LTE) を導入する。
我々のアプローチには、様々なビジョンデータセットを用いたビジョントランスフォーマーの広範な実験が含まれており、LTEが標準の事前トレーニングと競合していることが示されている。
論文 参考訳(メタデータ) (2024-02-26T18:55:13Z) - Continual Learning with Pre-Trained Models: A Survey [66.49084129482239]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Reducing Computational Costs in Sentiment Analysis: Tensorized Recurrent
Networks vs. Recurrent Networks [0.12891210250935145]
特定のテキストに対する聴衆の反応を期待することは、政治、研究、商業産業など、社会のいくつかの側面に不可欠である。
感性分析(英: Sentiment Analysis、SA)は、語彙・統計・深層学習法を用いて、異なるサイズのテキストが肯定的、否定的、中立的な感情を示すかどうかを判断する有用な自然言語処理(NLP)技術である。
論文 参考訳(メタデータ) (2023-06-16T09:18:08Z) - TMR: Text-to-Motion Retrieval Using Contrastive 3D Human Motion
Synthesis [59.465092047829835]
我々は、テキストから3次元の人間の動きを抽出する簡単な方法であるTMRを提案する。
提案手法は,最先端のテキスト-モーション合成モデルTEMOSを拡張した。
運動生成損失の維持は、対照的な訓練とともに、優れた性能を得るためには不可欠であることを示す。
論文 参考訳(メタデータ) (2023-05-02T17:52:41Z) - Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning [2.2060666847121864]
モデル評価は教師付き機械学習分類解析において重要な要素である。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
論文 参考訳(メタデータ) (2023-02-09T00:38:42Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z) - Recurrent Inference Machines as inverse problem solvers for MR
relaxometry [0.0]
本稿では,T1およびT2マッピングの実行にRIM(Recurrent Inference Machines)を用いることを提案する。
RIMは、信号モデルに基づいて反復推論プロセスを学ぶニューラルネットワークフレームワークである。
RIM での推論は Maximum Likelihood Estimator (MLE) の150倍高速である
論文 参考訳(メタデータ) (2021-06-08T16:50:49Z) - Towards Robust Neural Retrieval Models with Synthetic Pre-Training [28.547347789198096]
本研究では,シーケンシャル・トゥ・シークエンス生成器を用いて生成した合成トレーニング例について述べる。
本実験では,5つのテストセットにおけるドメイン内およびドメイン外両方の検索性能を,合成例による事前学習により改善する。
論文 参考訳(メタデータ) (2021-04-15T22:12:01Z) - Achieving Online Regression Performance of LSTMs with Simple RNNs [0.0]
本稿では,パラメータ数に線形時間を要する1次学習アルゴリズムを提案する。
SRNNが我々のアルゴリズムでトレーニングされている場合、LSTMと非常によく似た回帰性能を2~3倍の短いトレーニング時間で提供することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:41:13Z) - RadixSpline: A Single-Pass Learned Index [84.84747738666263]
RadixSpline(RS)は、データに1回のパスで構築できる学習インデックスです。
RSは2つのパラメータしか持たないにもかかわらず、すべてのデータセットで競合的な結果を達成する。
論文 参考訳(メタデータ) (2020-04-30T01:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。