論文の概要: It's Not Just Labeling -- A Research on LLM Generated Feedback Interpretability and Image Labeling Sketch Features
- arxiv url: http://arxiv.org/abs/2505.19419v2
- Date: Tue, 27 May 2025 02:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 12:08:55.085176
- Title: It's Not Just Labeling -- A Research on LLM Generated Feedback Interpretability and Image Labeling Sketch Features
- Title(参考訳): 単にラベリングではない -- LLM生成フィードバック解釈性と画像ラベリングスケッチ機能に関する研究
- Authors: Baichuan Li, Larry Powell, Tracy Hammond,
- Abstract要約: 本研究では,大規模言語モデル(LLM)がサポートするスケッチベースのアノテーション手法を提案する。
合成データセットを用いて,スケッチ認識機能とフィードバック指標との関連性を検討する。
私たちの主な貢献は、非専門家のアノテーションを単純化するスケッチベースの仮想アシスタントです。
- 参考スコア(独自算出の注目度): 3.0791678502031514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of training data is critical to the performance of machine learning applications in domains like transportation, healthcare, and robotics. Accurate image labeling, however, often relies on time-consuming, expert-driven methods with limited feedback. This research introduces a sketch-based annotation approach supported by large language models (LLMs) to reduce technical barriers and enhance accessibility. Using a synthetic dataset, we examine how sketch recognition features relate to LLM feedback metrics, aiming to improve the reliability and interpretability of LLM-assisted labeling. We also explore how prompting strategies and sketch variations influence feedback quality. Our main contribution is a sketch-based virtual assistant that simplifies annotation for non-experts and advances LLM-driven labeling tools in terms of scalability, accessibility, and explainability.
- Abstract(参考訳): トレーニングデータの質は、輸送、ヘルスケア、ロボット工学といった分野における機械学習アプリケーションのパフォーマンスに不可欠である。
しかし、正確な画像ラベリングは、限られたフィードバックを伴う時間を要する専門家駆動の手法に依存していることが多い。
本研究では,大規模言語モデル(LLM)がサポートするスケッチベースのアノテーションアプローチを導入し,技術的障壁の低減とアクセシビリティの向上を図る。
合成データセットを用いて,スケッチ認識機能とLCMフィードバック指標との関連性について検討し,LCM支援ラベリングの信頼性と解釈性の向上を目的とした。
また、戦略の推進やスケッチのバリエーションがフィードバックの品質にどのように影響するかについても検討する。
我々の主な貢献はスケッチベースのバーチャルアシスタントで、非専門家のアノテーションを単純化し、スケーラビリティ、アクセシビリティ、説明可能性の観点からLLM駆動のラベルツールを進化させます。
関連論文リスト
- A Soft Sensor Method with Uncertainty-Awareness and Self-Explanation Based on Large Language Models Enhanced by Domain Knowledge Retrieval [17.605817344542345]
Few-shot Uncertainty-aware and Self-Explaining Soft Sensor (LLM-FUESS) というフレームワークを提案する。
LLM-FUESSには、ゼロショット補助可変セレクタ(LLM-ZAVS)と不確実性認識Few-shot Soft Sensor(LLM-UFSS)が含まれている。
提案手法は,最先端の予測性能,強靭性,柔軟性を実現し,従来の手法のトレーニング不安定性を効果的に軽減する。
論文 参考訳(メタデータ) (2025-01-06T11:43:29Z) - Enhancing Trust in LLMs: Algorithms for Comparing and Interpreting LLMs [1.0878040851638]
本稿では,大規模言語モデル(LLM)の信頼性と理解を高めるための評価手法について検討する。
主な評価指標は、パープレキシティ測定、NLPメトリクス(BLEU, ROUGE, METEOR, BERTScore, GLEU, Word Error Rate, character Error Rate), Zero-Shot and Few-Shot Learning Performance, Transfer Learning Evaluation, Adversarial Testing, Fairness and Bias Evaluationである。
論文 参考訳(メタデータ) (2024-06-04T03:54:53Z) - A Review on Discriminative Self-supervised Learning Methods in Computer Vision [5.5547914920738]
自己教師付き学習(SSL)はコンピュータビジョンにおける変革的アプローチとして急速に発展してきた。
本稿では,人間のラベルを必要としないプレテキストタスクを解くことによって,表現の学習に焦点を当てた識別的SSL手法の包括的分析を行う。
論文 参考訳(メタデータ) (2024-05-08T11:15:20Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Developing a Scalable Benchmark for Assessing Large Language Models in
Knowledge Graph Engineering [0.0]
我々は知識グラフ工学(KGE)に焦点を当てたベンチマークフレームワークを導入する。
有用なツールであるながら、大言語モデルは、ゼロショットプロンプトによる知識グラフ生成を支援するのに相応しいものではない。
論文 参考訳(メタデータ) (2023-08-31T10:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。