論文の概要: It's Not Just Labeling" -- A Research on LLM Generated Feedback Interpretability and Image Labeling Sketch Features
- arxiv url: http://arxiv.org/abs/2505.19419v1
- Date: Mon, 26 May 2025 02:13:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.105335
- Title: It's Not Just Labeling" -- A Research on LLM Generated Feedback Interpretability and Image Labeling Sketch Features
- Title(参考訳): 単なるラベリングではない」 -- LLM生成フィードバック解釈性と画像ラベリングスケッチ機能に関する研究
- Authors: Baichuan Li, Larry Powell, Tracy Hammond,
- Abstract要約: 本研究では,大規模言語モデル(LLM)がサポートするスケッチベースのアノテーション手法を提案する。
合成データセットを用いて,スケッチ認識機能とフィードバック指標との関連性を検討する。
私たちの主な貢献は、非専門家のアノテーションを単純化するスケッチベースの仮想アシスタントです。
- 参考スコア(独自算出の注目度): 3.0791678502031514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of training data is critical to the performance of machine learning applications in domains like transportation, healthcare, and robotics. Accurate image labeling, however, often relies on time-consuming, expert-driven methods with limited feedback. This research introduces a sketch-based annotation approach supported by large language models (LLMs) to reduce technical barriers and enhance accessibility. Using a synthetic dataset, we examine how sketch recognition features relate to LLM feedback metrics, aiming to improve the reliability and interpretability of LLM-assisted labeling. We also explore how prompting strategies and sketch variations influence feedback quality. Our main contribution is a sketch-based virtual assistant that simplifies annotation for non-experts and advances LLM-driven labeling tools in terms of scalability, accessibility, and explainability.
- Abstract(参考訳): トレーニングデータの質は、輸送、ヘルスケア、ロボット工学といった分野における機械学習アプリケーションのパフォーマンスに不可欠である。
しかし、正確な画像ラベリングは、限られたフィードバックを伴う時間を要する専門家駆動の手法に依存していることが多い。
本研究では,大規模言語モデル(LLM)がサポートするスケッチベースのアノテーションアプローチを導入し,技術的障壁の低減とアクセシビリティの向上を図る。
合成データセットを用いて,スケッチ認識機能とLCMフィードバック指標との関連性について検討し,LCM支援ラベリングの信頼性と解釈性の向上を目的とした。
また、戦略の推進やスケッチのバリエーションがフィードバックの品質にどのように影響するかについても検討する。
我々の主な貢献はスケッチベースのバーチャルアシスタントで、非専門家のアノテーションを単純化し、スケーラビリティ、アクセシビリティ、説明可能性の観点からLLM駆動のラベルツールを進化させます。
関連論文リスト
- Language Bottleneck Models: A Framework for Interpretable Knowledge Tracing and Beyond [55.984684518346924]
我々は、知識追跡を逆問題として再考する: 過去の回答を説明できる最小限の自然言語要約を学習し、将来の回答を予測できる。
我々のLanguage Bottleneck Model(LBM)は、解釈可能な知識要約を書くエンコーダLLMと、その要約テキストのみを使用して生徒の反応を再構成し予測しなければならないフリーズデコーダLLMで構成されている。
合成算術ベンチマークと大規模Eediデータセットの実験により、LBMは最先端のKT法と直接LLM法の精度に匹敵する一方で、受講者軌道のオーダーを少なくすることを示した。
論文 参考訳(メタデータ) (2025-06-20T13:21:14Z) - MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - A Soft Sensor Method with Uncertainty-Awareness and Self-Explanation Based on Large Language Models Enhanced by Domain Knowledge Retrieval [17.605817344542345]
Few-shot Uncertainty-aware and Self-Explaining Soft Sensor (LLM-FUESS) というフレームワークを提案する。
LLM-FUESSには、ゼロショット補助可変セレクタ(LLM-ZAVS)と不確実性認識Few-shot Soft Sensor(LLM-UFSS)が含まれている。
提案手法は,最先端の予測性能,強靭性,柔軟性を実現し,従来の手法のトレーニング不安定性を効果的に軽減する。
論文 参考訳(メタデータ) (2025-01-06T11:43:29Z) - Training Strategies for Isolated Sign Language Recognition [72.27323884094953]
本稿では,孤立手話認識のための包括的モデル学習パイプラインを提案する。
構築されたパイプラインには、慎重に選択された画像とビデオの拡張が含まれており、低いデータ品質とさまざまなサインスピードの課題に対処している。
論文 参考訳(メタデータ) (2024-12-16T08:37:58Z) - Enhancing Text Classification through LLM-Driven Active Learning and Human Annotation [2.0411082897313984]
本研究では,人間のアノテータと大規模言語モデルを統合する新しい手法を提案する。
提案フレームワークは, モデルの不確実性レベルに応じて, 人間のアノテーションとLLMの出力を統合する。
実験結果から, モデル精度の維持・改善を図りながら, データアノテーションに関連するコストを大幅に削減した。
論文 参考訳(メタデータ) (2024-06-17T21:45:48Z) - Enhancing Trust in LLMs: Algorithms for Comparing and Interpreting LLMs [1.0878040851638]
本稿では,大規模言語モデル(LLM)の信頼性と理解を高めるための評価手法について検討する。
主な評価指標は、パープレキシティ測定、NLPメトリクス(BLEU, ROUGE, METEOR, BERTScore, GLEU, Word Error Rate, character Error Rate), Zero-Shot and Few-Shot Learning Performance, Transfer Learning Evaluation, Adversarial Testing, Fairness and Bias Evaluationである。
論文 参考訳(メタデータ) (2024-06-04T03:54:53Z) - A Review on Discriminative Self-supervised Learning Methods in Computer Vision [5.5547914920738]
自己教師付き学習(SSL)はコンピュータビジョンにおける変革的アプローチとして急速に発展してきた。
本稿では,人間のラベルを必要としないプレテキストタスクを解くことによって,表現の学習に焦点を当てた識別的SSL手法の包括的分析を行う。
論文 参考訳(メタデータ) (2024-05-08T11:15:20Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Developing a Scalable Benchmark for Assessing Large Language Models in
Knowledge Graph Engineering [0.0]
我々は知識グラフ工学(KGE)に焦点を当てたベンチマークフレームワークを導入する。
有用なツールであるながら、大言語モデルは、ゼロショットプロンプトによる知識グラフ生成を支援するのに相応しいものではない。
論文 参考訳(メタデータ) (2023-08-31T10:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。