論文の概要: A Comparison Between Tsetlin Machines and Deep Neural Networks in the
Context of Recommendation Systems
- arxiv url: http://arxiv.org/abs/2212.10136v1
- Date: Tue, 20 Dec 2022 10:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 17:00:58.026315
- Title: A Comparison Between Tsetlin Machines and Deep Neural Networks in the
Context of Recommendation Systems
- Title(参考訳): 推薦システムにおけるTsetlinマシンとディープニューラルネットワークの比較
- Authors: Karl Audun Borgersen, Morten Goodwin, Jivitesh Sharma
- Abstract要約: 勧告システム(Recommendation Systems, RS)は、現代社会において広く使われており、人間とAIの相互作用の最大のポイントの1つである。
現代のRSは、しばしば深層学習モデルを用いて実装される。
新たに導入されたTsetlin Machines (TM) は、その固有の解釈可能性のために、いくつかの価値のある性質を持っている。
- 参考スコア(独自算出の注目度): 4.662321040754879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommendation Systems (RSs) are ubiquitous in modern society and are one of
the largest points of interaction between humans and AI. Modern RSs are often
implemented using deep learning models, which are infamously difficult to
interpret. This problem is particularly exasperated in the context of
recommendation scenarios, as it erodes the user's trust in the RS. In contrast,
the newly introduced Tsetlin Machines (TM) possess some valuable properties due
to their inherent interpretability. TMs are still fairly young as a technology.
As no RS has been developed for TMs before, it has become necessary to perform
some preliminary research regarding the practicality of such a system. In this
paper, we develop the first RS based on TMs to evaluate its practicality in
this application domain. This paper compares the viability of TMs with other
machine learning models prevalent in the field of RS. We train and investigate
the performance of the TM compared with a vanilla feed-forward deep learning
model. These comparisons are based on model performance,
interpretability/explainability, and scalability. Further, we provide some
benchmark performance comparisons to similar machine learning solutions
relevant to RSs.
- Abstract(参考訳): レコメンデーションシステム(rss)は現代社会においてユビキタスであり、人間とaiの相互作用の最大のポイントの1つである。
現代のrssは深層学習モデルを使って実装されることが多い。
この問題は、RSに対するユーザの信頼を損なうため、特にレコメンデーションシナリオの文脈で誇張されている。
対照的に、新しく導入されたTsetlin Machines (TM) は、その固有の解釈可能性のために、いくつかの価値のある性質を持っている。
TMはまだ技術としてかなり若い。
TMのためにRSは開発されていないため、そのようなシステムの実用性に関する予備的な研究を行う必要がある。
本稿では,TMをベースとした最初のRSを開発し,本アプリケーション領域における実用性を評価する。
本稿では,tmsの有効性と,rsの分野に共通する他の機械学習モデルとの比較を行った。
我々は,バニラフィードフォワード深層学習モデルと比較して,TMの性能を訓練・調査する。
これらの比較は、モデルパフォーマンス、解釈可能性/説明可能性、スケーラビリティに基づいている。
さらに、RSに関連する類似の機械学習ソリューションとベンチマーク性能の比較を行った。
関連論文リスト
- SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - Understanding the differences in Foundation Models: Attention, State Space Models, and Recurrent Neural Networks [50.29356570858905]
本稿では,これらすべてのアーキテクチャの共通表現に関する原則的な調査を可能にする動的システムフレームワーク(DSF)について紹介する。
ソフトマックスアテンションと他のモデルクラスとの原理的比較を行い、ソフトマックスアテンションを近似できる理論条件について議論する。
このことは、DSFが将来のより効率的でスケーラブルな基盤モデルの体系的な開発を導く可能性を示している。
論文 参考訳(メタデータ) (2024-05-24T17:19:57Z) - Investigating the Robustness of Counterfactual Learning to Rank Models: A Reproducibility Study [61.64685376882383]
ランク付け学習(CLTR: Counterfactual Learning to rank)は、IRコミュニティにおいて、ログ化された大量のユーザインタラクションデータを活用してランキングモデルをトレーニングする能力において、大きな注目を集めている。
本稿では,複雑かつ多様な状況における既存のCLTRモデルのロバスト性について検討する。
その結果, DLAモデルとIPS-DCMは, PS-PBMやPSSよりも, オフラインの確率推定による堅牢性が高いことがわかった。
論文 参考訳(メタデータ) (2024-04-04T10:54:38Z) - Reducing Computational Costs in Sentiment Analysis: Tensorized Recurrent
Networks vs. Recurrent Networks [0.12891210250935145]
特定のテキストに対する聴衆の反応を期待することは、政治、研究、商業産業など、社会のいくつかの側面に不可欠である。
感性分析(英: Sentiment Analysis、SA)は、語彙・統計・深層学習法を用いて、異なるサイズのテキストが肯定的、否定的、中立的な感情を示すかどうかを判断する有用な自然言語処理(NLP)技術である。
論文 参考訳(メタデータ) (2023-06-16T09:18:08Z) - Revisiting Class-Incremental Learning with Pre-Trained Models: Generalizability and Adaptivity are All You Need [84.3507610522086]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
近年の事前訓練は大きな進歩を遂げており、CILには膨大な事前訓練モデル(PTM)が利用できるようになった。
CILの中核となる要素は、モデル更新の適応性と知識伝達の一般化性である。
論文 参考訳(メタデータ) (2023-03-13T17:59:02Z) - Machine Learning Capability: A standardized metric using case difficulty
with applications to individualized deployment of supervised machine learning [2.2060666847121864]
モデル評価は教師付き機械学習分類解析において重要な要素である。
アイテム応答理論(IRT)と機械学習を用いたコンピュータ適応テスト(CAT)は、最終分類結果とは無関係にデータセットをベンチマークすることができる。
論文 参考訳(メタデータ) (2023-02-09T00:38:42Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Recurrent Inference Machines as inverse problem solvers for MR
relaxometry [0.0]
本稿では,T1およびT2マッピングの実行にRIM(Recurrent Inference Machines)を用いることを提案する。
RIMは、信号モデルに基づいて反復推論プロセスを学ぶニューラルネットワークフレームワークである。
RIM での推論は Maximum Likelihood Estimator (MLE) の150倍高速である
論文 参考訳(メタデータ) (2021-06-08T16:50:49Z) - Towards Robust Neural Retrieval Models with Synthetic Pre-Training [28.547347789198096]
本研究では,シーケンシャル・トゥ・シークエンス生成器を用いて生成した合成トレーニング例について述べる。
本実験では,5つのテストセットにおけるドメイン内およびドメイン外両方の検索性能を,合成例による事前学習により改善する。
論文 参考訳(メタデータ) (2021-04-15T22:12:01Z) - Achieving Online Regression Performance of LSTMs with Simple RNNs [0.0]
本稿では,パラメータ数に線形時間を要する1次学習アルゴリズムを提案する。
SRNNが我々のアルゴリズムでトレーニングされている場合、LSTMと非常によく似た回帰性能を2~3倍の短いトレーニング時間で提供することを示す。
論文 参考訳(メタデータ) (2020-05-16T11:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。