論文の概要: Sandpiper: Orchestrated AI-Annotation for Educational Discourse at Scale
- arxiv url: http://arxiv.org/abs/2603.08406v1
- Date: Mon, 09 Mar 2026 14:01:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.189748
- Title: Sandpiper: Orchestrated AI-Annotation for Educational Discourse at Scale
- Title(参考訳): Sandpiper: 大規模な教育談話のためのAIアノテーション
- Authors: Daryl Hedley, Doug Pietrzak, Jorge Dias, Ian Burden, Bakhtawar Ahtisham, Zhuqian Zhou, Kirk Vanacore, Josh Marland, Rachel Slama, Justin Reich, Kenneth Koedinger, René Kizilcec,
- Abstract要約: Sandpiperは、高ボリュームの会話データと人間の質的な専門知識の橋渡しとして設計された混合開始システムである。
本稿では,AIを用いた定性分析における研究効率の向上,レータ間信頼性,研究者信頼度を評価するためのシステムの有効性を評価するためのユーザスタディを提案する。
- 参考スコア(独自算出の注目度): 3.0317183198617066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital educational environments are expanding toward complex AI and human discourse, providing researchers with an abundance of data that offers deep insights into learning and instructional processes. However, traditional qualitative analysis remains a labor-intensive bottleneck, severely limiting the scale at which this research can be conducted. We present Sandpiper, a mixed-initiative system designed to serve as a bridge between high-volume conversational data and human qualitative expertise. By tightly coupling interactive researcher dashboards with agentic Large Language Model (LLM) engines, the platform enables scalable analysis without sacrificing methodological rigor. Sandpiper addresses critical barriers to AI adoption in education by implementing context-aware, automated de-identification workflows supported by secure, university-housed infrastructure to ensure data privacy. Furthermore, the system employs schema-constrained orchestration to eliminate LLM hallucinations and enforces strict adherence to qualitative codebooks. An integrated evaluations engine allows for the continuous benchmarking of AI performance against human labels, fostering an iterative approach to model refinement and validation. We propose a user study to evaluate the system's efficacy in improving research efficiency, inter-rater reliability, and researcher trust in AI-assisted qualitative workflows.
- Abstract(参考訳): デジタル教育環境は、複雑なAIと人間の談話へと拡大し、研究者に大量のデータを提供し、学習と教育プロセスに関する深い洞察を提供する。
しかし、従来の質的分析は労働集約的なボトルネックであり、この研究の規模を著しく制限している。
Sandpiperは、高ボリュームの会話データと人間の質的な専門知識の橋渡しとして設計された混合開始システムである。
対話型研究者ダッシュボードとエージェント型大規模言語モデル(LLM)エンジンを密結合することにより,方法論的な厳密性を犠牲にすることなく,スケーラブルな分析が可能になる。
Sandpiperは、データプライバシを保証するために、大学が所有するセキュアなインフラストラクチャによってサポートされているコンテキスト認識の自動化された非識別ワークフローを実装することで、教育におけるAI導入に対する重要な障壁に対処する。
さらに、LLM幻覚を排除し、定性的なコードブックに厳密な準拠を強制するために、スキーマ制約付きオーケストレーションを採用する。
統合評価エンジンは、人間のラベルに対するAIパフォーマンスの継続的なベンチマークを可能にし、モデルの洗練と検証に対する反復的なアプローチを促進する。
本稿では,AIを活用した定性的ワークフローに対する研究効率の向上,レータ間信頼性,研究者の信頼度を評価するためのシステムの有効性を評価するためのユーザスタディを提案する。
関連論文リスト
- Exploring a New Competency Modeling Process with Large Language Models [0.0]
本研究では,大規模言語モデル(LLM)に基づく新しい能力モデリングプロセスを提案する。
具体的には、LLMを利用して、生のテキストデータから行動的・心理的記述を抽出する。
学習可能なパラメータを導入し、異なる情報ソースを適応的に統合し、モデルが行動信号と心理信号の相対的重要性を決定できるようにする。
論文 参考訳(メタデータ) (2026-02-13T16:46:51Z) - Towards AI-Supported Research: a Vision of the TIB AIssistant [6.36260975777314]
我々は、領域に依存しない人間と機械の協調プラットフォームであるTIB AIsistantのビジョンを提示する。
提案手法の有効性と潜在的な影響を実証する早期プロトタイプのコンセプトフレームワーク,システムアーキテクチャ,実装について述べる。
論文 参考訳(メタデータ) (2025-12-18T12:08:46Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - ScholarMate: A Mixed-Initiative Tool for Qualitative Knowledge Work and Information Sensemaking [2.1783708115247866]
ScholarMateは、人間の監視とAI支援を統合することで、質的分析を強化するために設計された対話型システムである。
ScholarMateは、研究者が非線形キャンバス上のテキストスニペットを動的に配置し、対話し、AIを活用してテーマ提案、マルチレベル要約、エビデンスベースのテーマ命名を可能にする。
論文 参考訳(メタデータ) (2025-04-19T21:11:40Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - AttNS: Attention-Inspired Numerical Solving For Limited Data Scenarios [51.94807626839365]
限定データによる微分方程式の解法として,注目型数値解法(AttNS)を提案する。
AttNSは、モデル一般化とロバスト性の向上におけるResidual Neural Networks(ResNet)のアテンションモジュールの効果にインスパイアされている。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。