論文の概要: Impact of Experiencing Misrecognition by Teachable Agents on Learning
and Rapport
- arxiv url: http://arxiv.org/abs/2306.07302v1
- Date: Sun, 11 Jun 2023 21:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 16:28:19.741135
- Title: Impact of Experiencing Misrecognition by Teachable Agents on Learning
and Rapport
- Title(参考訳): 教師エージェントによる誤認知体験が学習とラプポートに及ぼす影響
- Authors: Yuya Asano, Diane Litman, Mingzhi Yu, Nikki Lobczowski, Timothy
Nokes-Malach, Adriana Kovashka, Erin Walker
- Abstract要約: 教師可能なエージェントは、自動音声認識(ASR)から生じる誤りに弱い
これらの誤りは伝播し、会話の流れに予期せぬ変化をもたらす。
これらの変化が学習者の獲得と学習者のエージェントとのラプポートとどのように関連しているかを分析した。
- 参考スコア(独自算出の注目度): 27.13126126170006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While speech-enabled teachable agents have some advantages over typing-based
ones, they are vulnerable to errors stemming from misrecognition by automatic
speech recognition (ASR). These errors may propagate, resulting in unexpected
changes in the flow of conversation. We analyzed how such changes are linked
with learning gains and learners' rapport with the agents. Our results show
they are not related to learning gains or rapport, regardless of the types of
responses the agents should have returned given the correct input from learners
without ASR errors. We also discuss the implications for optimal error-recovery
policies for teachable agents that can be drawn from these findings.
- Abstract(参考訳): 音声認識可能なエージェントはタイピングベースエージェントよりもいくつかの利点があるが、自動音声認識(ASR)による誤認識に起因する誤りに弱い。
これらの誤りは伝播し、会話の流れに予期せぬ変化をもたらす。
これらの変化が学習成果と学習者のエージェントとのラパポートとどのように関連しているかを分析した。
その結果,ASRの誤りを伴わない学習者からの正しい入力を条件として,エージェントが返すべき応答の種類に関係なく,学習の得得やラプポートとは無関係であることが判明した。
また、これらの知見から引き出すことができる教育可能なエージェントに対する最適エラー回復ポリシーの意義についても論じる。
関連論文リスト
- Towards interfacing large language models with ASR systems using confidence measures and prompting [54.39667883394458]
本研究では,大言語モデル(LLM)を用いたASRテキストのポストホック修正について検討する。
精度の高い転写文に誤りを導入することを避けるため,信頼度に基づくフィルタリング手法を提案する。
その結果,競争力の低いASRシステムの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2024-07-31T08:00:41Z) - Retrieved In-Context Principles from Previous Mistakes [55.109234526031884]
In-context Learning (ICL) は、入力出力の正しい例を用いて、下流のタスクにLarge Language Models (LLM) を適用するのに役立っている。
近年の進歩は、ミスから派生した原則により、モデルパフォーマンスの改善を試みている。
本稿では,新しい教師学習フレームワークであるRetrieved In-Context Principles (RICP)を提案する。
論文 参考訳(メタデータ) (2024-07-08T07:32:26Z) - Error Correction by Paying Attention to Both Acoustic and Confidence References for Automatic Speech Recognition [52.624909026294105]
本稿では,非自己回帰型音声誤り訂正法を提案する。
信頼モジュールは、N-best ASR仮説の各単語の不確実性を測定する。
提案方式は,ASRモデルと比較して誤差率を21%削減する。
論文 参考訳(メタデータ) (2024-06-29T17:56:28Z) - You don't understand me!: Comparing ASR results for L1 and L2 speakers of Swedish [0.5249805590164903]
我々は,ASRの異なるサービスによって書き起こされたスウェーデン語の母国語,非母国語,読み,自発語に対する認識結果の差に着目した。
単語誤り率を用いて認識結果を比較し、観察された転写誤りを生じる可能性のある言語的要因を解析する。
論文 参考訳(メタデータ) (2024-05-22T06:24:55Z) - ML-LMCL: Mutual Learning and Large-Margin Contrastive Learning for
Improving ASR Robustness in Spoken Language Understanding [55.39105863825107]
本稿では,ML-LMCL(Multual Learning and Large-Margin Contrastive Learning)を提案する。
微調整では、相互学習を適用し、手書き文字とASR文字の2つのSLUモデルを訓練する。
3つのデータセットの実験では、ML-LMCLは既存のモデルより優れ、新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-19T16:53:35Z) - Contrastive Learning for Improving ASR Robustness in Spoken Language
Understanding [28.441725610692714]
本稿では,ASRの誤りに対して頑健な発話表現を,対照的な目的を用いて学習することに焦点を当てる。
3つのベンチマークデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-05-02T07:21:21Z) - Improving Distinction between ASR Errors and Speech Disfluencies with
Feature Space Interpolation [0.0]
微調整事前訓練言語モデル(LM)は,後処理における自動音声認識(ASR)エラー検出において一般的な手法である。
本稿では,既存のLMベースのASR誤り検出システムの改良手法を提案する。
論文 参考訳(メタデータ) (2021-08-04T02:11:37Z) - Correcting Experience Replay for Multi-Agent Communication [18.12281605882891]
マルチエージェント強化学習(MARL)を用いたコミュニケーション学習の課題について考察する。
一般的なアプローチは、リプレイバッファからサンプリングされたデータを使って、政治外を学ぶことである。
MARLにより誘導される観測通信の非定常性を考慮した「通信補正」を導入する。
論文 参考訳(メタデータ) (2020-10-02T20:49:24Z) - Improving Readability for Automatic Speech Recognition Transcription [50.86019112545596]
我々は、可読性のためのASRポストプロセッシング(APR)と呼ばれる新しいNLPタスクを提案する。
APRは、ノイズの多いASR出力を、話者の意味を保ちながら、人間や下流タスクのための読みやすいテキストに変換することを目的としている。
我々は,いくつかのオープンソースモデルと適応型事前学習モデルに基づく微調整モデルと,従来のパイプライン手法との比較を行った。
論文 参考訳(メタデータ) (2020-04-09T09:26:42Z) - Combating False Negatives in Adversarial Imitation Learning [67.99941805086154]
敵対的模倣学習では、エージェントエピソードと、所望の行動を表す専門家のデモンストレーションとを区別するために、判別器を訓練する。
訓練された方針がより成功することを学ぶと、負の例は専門家の例とますます似ている。
本研究では,偽陰性の影響を緩和し,BabyAI環境上で検証する手法を提案する。
論文 参考訳(メタデータ) (2020-02-02T14:56:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。