論文の概要: AutoQual: An LLM Agent for Automated Discovery of Interpretable Features for Review Quality Assessment
- arxiv url: http://arxiv.org/abs/2510.08081v1
- Date: Thu, 09 Oct 2025 11:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.031008
- Title: AutoQual: An LLM Agent for Automated Discovery of Interpretable Features for Review Quality Assessment
- Title(参考訳): AutoQual: レビュー品質評価のための解釈可能な機能の自動発見のためのLLMエージェント
- Authors: Xiaochong Lan, Jie Feng, Yinxing Liu, Xinlei Shi, Yong Li,
- Abstract要約: AutoQualは、データに埋め込まれた暗黙の知識を明示的で計算可能な機能に変換するためのフレームワークである。
我々は,10億のユーザベースを持つ大規模オンラインプラットフォームにメソッドをデプロイする。
- 参考スコア(独自算出の注目度): 9.378765665099573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ranking online reviews by their intrinsic quality is a critical task for e-commerce platforms and information services, impacting user experience and business outcomes. However, quality is a domain-dependent and dynamic concept, making its assessment a formidable challenge. Traditional methods relying on hand-crafted features are unscalable across domains and fail to adapt to evolving content patterns, while modern deep learning approaches often produce black-box models that lack interpretability and may prioritize semantics over quality. To address these challenges, we propose AutoQual, an LLM-based agent framework that automates the discovery of interpretable features. While demonstrated on review quality assessment, AutoQual is designed as a general framework for transforming tacit knowledge embedded in data into explicit, computable features. It mimics a human research process, iteratively generating feature hypotheses through reflection, operationalizing them via autonomous tool implementation, and accumulating experience in a persistent memory. We deploy our method on a large-scale online platform with a billion-level user base. Large-scale A/B testing confirms its effectiveness, increasing average reviews viewed per user by 0.79% and the conversion rate of review readers by 0.27%.
- Abstract(参考訳): オンラインレビューを本質的な品質でランク付けすることは、Eコマースプラットフォームや情報サービスにとって重要なタスクであり、ユーザエクスペリエンスやビジネス成果に影響を与える。
しかし、品質はドメインに依存し、ダイナミックな概念であり、その評価は重大な課題である。
従来の手作りの手法では、ドメイン間でのスケーリングが不可能で、進化するコンテンツパターンに適応できないのに対して、現代のディープラーニングアプローチでは、解釈可能性に欠け、品質よりもセマンティクスを優先するブラックボックスモデルがしばしば作成される。
これらの課題に対処するため,私たちは,解釈可能な機能の発見を自動化するLLMベースのエージェントフレームワークであるAutoQualを提案する。
レビュー品質評価で実証されているが、AutoQualはデータに埋め込まれた暗黙の知識を明示的で計算可能な機能に変換するための一般的なフレームワークとして設計されている。
人間の研究プロセスを模倣し、リフレクションを通じて機能の仮説を反復的に生成し、自律的なツール実装を通じてそれらを運用し、永続的なメモリで経験を蓄積する。
我々は,10億のユーザベースを持つ大規模オンラインプラットフォームにメソッドをデプロイする。
大規模なA/Bテストは、その有効性を確認し、ユーザ毎の平均レビューを0.79%増加させ、レビュー読者のコンバージョン率を0.27%向上させた。
関連論文リスト
- AutoMind: Adaptive Knowledgeable Agent for Automated Data Science [70.33796196103499]
LLM(Large Language Model)エージェントは、現実世界のデータサイエンス問題に対処する大きな可能性を示している。
既存のフレームワークは、厳格で、事前定義された、柔軟性のないコーディング戦略に依存している。
適応的で知識のあるLLMエージェントフレームワークであるAutoMindを紹介する。
論文 参考訳(メタデータ) (2025-06-12T17:59:32Z) - REAL: Benchmarking Autonomous Agents on Deterministic Simulations of Real Websites [9.58858258192147]
実世界のWebサイトの決定論的シミュレーションにおけるマルチターンエージェント評価のためのベンチマークおよびフレームワークであるREALを紹介する。
また、日々の複雑なユーザインタラクションを反映した112の実践的なタスクからなるベンチマークもリリースしています。
我々のフレームワークは、新しいタスクの容易な統合、再現可能な評価、スケーラブルな後学習データ生成をサポートします。
論文 参考訳(メタデータ) (2025-04-15T18:22:55Z) - AutoBench-V: Can Large Vision-Language Models Benchmark Themselves? [65.92331309449015]
本稿では,モデル能力の特定の側面に基づいてLVLMをベンチマークする,オンデマンドで評価を行う自動フレームワークであるAutoBench-Vを紹介する。
5つの要求されたユーザ入力に対して9つの人気のあるLVLMを広範囲に評価することにより、このフレームワークの有効性と信頼性を示す。
論文 参考訳(メタデータ) (2024-10-28T17:55:08Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - T-FREX: A Transformer-based Feature Extraction Method from Mobile App
Reviews [5.235401361674881]
モバイルアプリレビュー機能抽出のためのトランスフォーマーベースの完全自動アプローチであるT-FREXを提案する。
まず、実際のクラウドソースのソフトウェアレコメンデーションプラットフォームで、ユーザから真実の一連の機能を収集します。
次に、この新たに作成されたデータセットを使用して、名前付きエンティティ認識タスクで複数のLCMを微調整する。
論文 参考訳(メタデータ) (2024-01-08T11:43:03Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Quality In / Quality Out: Data quality more relevant than model choice in anomaly detection with the UGR'16 [0.29998889086656577]
ベンチマークデータセットの比較的小さな変更は、考慮された特定のML手法よりも、モデルパフォーマンスに著しく影響することを示します。
また、不正確なラベル付けの結果、測定されたモデル性能が不確かであることも示す。
論文 参考訳(メタデータ) (2023-05-31T12:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。