論文の概要: Assessing the feasibility of Large Language Models for detecting micro-behaviors in team interactions during space missions
- arxiv url: http://arxiv.org/abs/2506.22679v1
- Date: Fri, 27 Jun 2025 23:06:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.511566
- Title: Assessing the feasibility of Large Language Models for detecting micro-behaviors in team interactions during space missions
- Title(参考訳): 宇宙飛行におけるチームインタラクションにおける微小行動検出のための大規模言語モデルの有効性の評価
- Authors: Ankush Raut, Projna Paromita, Sydney Begerowski, Suzanne Bell, Theodora Chaspari,
- Abstract要約: 本研究では,宇宙飛行中に収集したテキストを用いて,チーム会話における微小行動の微妙な表現を検出するための大規模言語モデル(LLM)の実現可能性について検討する。
具体的には、エンコーダのみのシーケンス分類LLMとデコーダのみの因果言語モデリングLLMを用いた少数ショットテキスト生成を用いて、ゼロショット分類、微調整、パラフレーズ拡張細調整について検討する。
以上の結果から,RoBERTa や DistilBERT などのエンコーダのみの LLM は,微調整を重み付けしても,低表現のマイクロ行動,特に抑止音声の検出に苦慮していたことが示唆された。
- 参考スコア(独自算出の注目度): 3.489421154004978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the feasibility of large language models (LLMs) in detecting subtle expressions of micro-behaviors in team conversations using transcripts collected during simulated space missions. Specifically, we examine zero-shot classification, fine-tuning, and paraphrase-augmented fine-tuning with encoder-only sequence classification LLMs, as well as few-shot text generation with decoder-only causal language modeling LLMs, to predict the micro-behavior associated with each conversational turn (i.e., dialogue). Our findings indicate that encoder-only LLMs, such as RoBERTa and DistilBERT, struggled to detect underrepresented micro-behaviors, particularly discouraging speech, even with weighted fine-tuning. In contrast, the instruction fine-tuned version of Llama-3.1, a decoder-only LLM, demonstrated superior performance, with the best models achieving macro F1-scores of 44% for 3-way classification and 68% for binary classification. These results have implications for the development of speech technologies aimed at analyzing team communication dynamics and enhancing training interventions in high-stakes environments such as space missions, particularly in scenarios where text is the only accessible data.
- Abstract(参考訳): 本研究では,宇宙飛行中に収集したテキストを用いて,チーム会話における微小行動の微妙な表現を検出するための大規模言語モデル(LLM)の実現可能性について検討する。
具体的には、エンコーダのみのシーケンス分類によるゼロショット分類、微調整、パラフレーズ拡張による微調整、およびデコーダのみの因果言語モデリングによる少数ショットテキスト生成について検討し、各会話のターン(例えば、対話)に関連するマイクロ振る舞いを予測する。
以上の結果から,RoBERTaやDistilBERTのようなエンコーダのみのLSMは,微調整を重み付けしても,低表現のマイクロ行動,特に抑止音声の検出に苦慮していたことが示唆された。
対照的に、デコーダのみのLLMであるLlama-3.1の微調整版では、マクロF1スコアを3ウェイ分類で44%、バイナリ分類で68%の精度で達成し、優れた性能を示した。
これらの結果は、特にテキストが唯一アクセス可能なデータであるシナリオにおいて、チームコミュニケーションのダイナミクスを分析し、宇宙ミッションのような高所環境における訓練介入を強化することを目的とした音声技術の発達に影響を及ぼす。
関連論文リスト
- Spatial Audio Processing with Large Language Model on Wearable Devices [6.345647878712574]
空間的音声理解を大規模言語モデル(LLM)に組み込んだ新しいシステムアーキテクチャを提案する。
SINGは空間認識自動音声認識(ASR)をサポートし、単語誤り率(WER)5.3の既存の作業における88.52円の中央値エラーと比較して平均誤差が25.72円$-で大幅に改善されている。
例えば、最大5人まで、DoAエラーの中央値は16ドル(約1万2000円)と見積もっている。
論文 参考訳(メタデータ) (2025-04-11T18:19:59Z) - DeSTA2: Developing Instruction-Following Speech Language Model Without Speech Instruction-Tuning Data [84.01401439030265]
最近のエンドツーエンド言語モデル(SLM)は、大規模言語モデル(LLM)の機能に拡張されている。
音声とテキストのペアデータを生成するための,シンプルで効果的な自動処理手法を提案する。
本モデルでは,音声教育データを必要としない音声関連タスクの汎用性を示す。
論文 参考訳(メタデータ) (2024-09-30T07:01:21Z) - Chain of Stance: Stance Detection with Large Language Models [3.528201746844624]
スタンス検出は自然言語処理(NLP)におけるアクティブタスクである
我々は、Stance (CoS) の textitChain と呼ばれる新しいプロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-08-03T16:30:51Z) - COSMIC: Data Efficient Instruction-tuning For Speech In-Context Learning [45.282468928830056]
大規模言語モデル(LLM)に音声を統合するコスト効率のよい手法を提案する。
教師あり指導のための音声書き起こしから音声テスト質問応答(SQA)ペアを生成する。
3000万以上のトレーニング可能なパラメータで、COSMICは命令追従およびコンテキスト内学習の新たな能力を示す。
論文 参考訳(メタデータ) (2023-11-03T21:47:03Z) - On decoder-only architecture for speech-to-text and large language model
integration [59.49886892602309]
Speech-LLaMAは、音声情報をテキストベースの大規模言語モデルに効果的に組み込む新しいアプローチである。
我々は多言語音声からテキストへの翻訳タスクの実験を行い、強いベースラインよりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-07-08T06:47:58Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。