論文の概要: AutoTM 2.0: Automatic Topic Modeling Framework for Documents Analysis
- arxiv url: http://arxiv.org/abs/2410.00655v1
- Date: Tue, 1 Oct 2024 13:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 04:35:05.175364
- Title: AutoTM 2.0: Automatic Topic Modeling Framework for Documents Analysis
- Title(参考訳): AutoTM 2.0: ドキュメント分析のためのトピックモデリングフレームワーク
- Authors: Maria Khodorchenko, Nikolay Butakov, Maxim Zuev, Denis Nasonov,
- Abstract要約: AutoTM 2.0は、追加の規則化されたトピックモデルを最適化するためのフレームワークである。
AutoTM 2.0 は以前の AutoTM と比較して性能が良いことを示す。
- 参考スコア(独自算出の注目度): 0.17999333451993949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present an AutoTM 2.0 framework for optimizing additively regularized topic models. Comparing to the previous version, this version includes such valuable improvements as novel optimization pipeline, LLM-based quality metrics and distributed mode. AutoTM 2.0 is a comfort tool for specialists as well as non-specialists to work with text documents to conduct exploratory data analysis or to perform clustering task on interpretable set of features. Quality evaluation is based on specially developed metrics such as coherence and gpt-4-based approaches. Researchers and practitioners can easily integrate new optimization algorithms and adapt novel metrics to enhance modeling quality and extend their experiments. We show that AutoTM 2.0 achieves better performance compared to the previous AutoTM by providing results on 5 datasets with different features and in two different languages.
- Abstract(参考訳): 本稿では,追加正規化トピックモデルを最適化するためのAutoTM 2.0フレームワークを提案する。
以前のバージョンと比較して、このバージョンには、新しい最適化パイプライン、LLMベースの品質メトリクス、分散モードなどの重要な改善が含まれている。
AutoTM 2.0は、専門家や非専門家がテキストドキュメントを使って探索的なデータ分析をしたり、解釈可能な機能のセットでクラスタリングタスクを実行するための快適なツールである。
品質評価は、コヒーレンスやgpt-4ベースのアプローチのような特別に開発されたメトリクスに基づいている。
研究者や実践者は、新しい最適化アルゴリズムを容易に統合し、新しいメトリクスを適用して、モデリングの品質を高め、実験を拡張することができる。
異なる特徴を持つ5つのデータセットと2つの異なる言語で結果を提供することで、AutoTM 2.0は以前のAutoTMよりも優れたパフォーマンスを実現していることを示す。
関連論文リスト
- Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Modeling User Preferences with Automatic Metrics: Creating a High-Quality Preference Dataset for Machine Translation [18.077562738603792]
両世界の最善を生かすアプローチを提案する。
我々はまず,複数の高品質MTシステムによって生成された翻訳について,専門言語学者から文レベルの品質評価を収集する。
次に、この分析を用いて18の言語方向をカバーする18kインスタンスからなる新しいデータセットMT-Prefをキュレートする。
論文 参考訳(メタデータ) (2024-10-10T10:09:54Z) - FeatNavigator: Automatic Feature Augmentation on Tabular Data [29.913561808461612]
FeatNavigatorは、機械学習(ML)モデルのためのリレーショナルテーブルで高品質な機能を探求し、統合するフレームワークである。
FeatNavigatorは、MLモデルのパフォーマンスが最大40.1%向上する5つのパブリックデータセットにおいて、最先端のソリューションよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-06-13T18:44:48Z) - AutoFT: Learning an Objective for Robust Fine-Tuning [60.641186718253735]
ファンデーションモデルは、微調整によって下流タスクに適応できるリッチな表現をエンコードする。
手作り正則化技術を用いた頑健な微調整への最近のアプローチ
我々は、堅牢な微調整のためのデータ駆動型アプローチであるAutoFTを提案する。
論文 参考訳(メタデータ) (2024-01-18T18:58:49Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - AutoMix: Automatically Mixing Language Models [62.51238143437967]
大規模言語モデル(LLM)は、さまざまなサイズと構成のクラウドAPIプロバイダから利用可能になった。
より小さなLMからの出力の近似精度に基づいて,クエリを大規模LMに戦略的にルーティングする手法であるAutomixを提案する。
論文 参考訳(メタデータ) (2023-10-19T17:57:39Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - AutoFIS: Automatic Feature Interaction Selection in Factorization Models
for Click-Through Rate Prediction [75.16836697734995]
自動特徴相互作用選択(AutoFIS)と呼ばれる2段階のアルゴリズムを提案する。
AutoFISは、目標モデルを収束させるためにトレーニングするのと同等の計算コストで、因子化モデルに対する重要な特徴的相互作用を自動的に識別することができる。
AutoFISはHuawei App Storeレコメンデーションサービスのトレーニングプラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2020-03-25T06:53:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。