論文の概要: The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks
- arxiv url: http://arxiv.org/abs/2504.10768v1
- Date: Tue, 15 Apr 2025 00:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:32.609125
- Title: The Art of Audience Engagement: LLM-Based Thin-Slicing of Scientific Talks
- Title(参考訳): オーディエンゲージメントの技法:LLMによる科学講演の薄いスライシング
- Authors: Ralf Schmälzle, Sue Lim, Yuetong Du, Gary Bente,
- Abstract要約: 簡単な抜粋(薄いスライス)が全体のプレゼンテーション品質を確実に予測できることを示します。
我々は,100以上の実生活科学講演の新たなコーパスを用いて,Large Language Models (LLMs) を用いて,プレゼンテーションの完全な書き起こしを評価する。
以上の結果から,LCMによる評価は人間の評価と密接に一致し,妥当性,信頼性,効率性が証明された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper examines the thin-slicing approach - the ability to make accurate judgments based on minimal information - in the context of scientific presentations. Drawing on research from nonverbal communication and personality psychology, we show that brief excerpts (thin slices) reliably predict overall presentation quality. Using a novel corpus of over one hundred real-life science talks, we employ Large Language Models (LLMs) to evaluate transcripts of full presentations and their thin slices. By correlating LLM-based evaluations of short excerpts with full-talk assessments, we determine how much information is needed for accurate predictions. Our results demonstrate that LLM-based evaluations align closely with human ratings, proving their validity, reliability, and efficiency. Critically, even very short excerpts (less than 10 percent of a talk) strongly predict overall evaluations. This suggests that the first moments of a presentation convey relevant information that is used in quality evaluations and can shape lasting impressions. The findings are robust across different LLMs and prompting strategies. This work extends thin-slicing research to public speaking and connects theories of impression formation to LLMs and current research on AI communication. We discuss implications for communication and social cognition research on message reception. Lastly, we suggest an LLM-based thin-slicing framework as a scalable feedback tool to enhance human communication.
- Abstract(参考訳): 本稿では, 科学的プレゼンテーションの文脈において, 細いスライシングアプローチ, 最小限の情報に基づいて正確な判断を行う能力について検討する。
非言語コミュニケーションとパーソナリティ心理学の研究に基づいて、短い抜粋(薄いスライス)が全体のプレゼンテーション品質を確実に予測することを示した。
我々は,100以上の実生活科学講演の新たなコーパスを用いて,Large Language Models (LLMs) を用いてプレゼンテーションの全文と薄いスライスの評価を行った。
LLMによる短い抜粋評価とフルトーク評価を関連づけることで,正確な予測に必要な情報量を決定する。
以上の結果から,LCMによる評価は人間の評価と密接に一致し,妥当性,信頼性,効率性が証明された。
批判的に言えば、非常に短い抜粋(講演の10%未満)でさえ、全体的な評価を強く予測します。
このことは、プレゼンテーションの最初の瞬間が、品質評価に使用され、持続的な印象を形作ることができる関連情報を伝えることを示唆している。
これらの発見は、異なるLSM間で堅牢であり、戦略を推進している。
この研究は、スライス研究を公用語に拡張し、印象形成の理論とLLMとを結びつけるとともに、現在のAI通信の研究も行っている。
メッセージ受信におけるコミュニケーションと社会的認知研究の意義について論じる。
最後に,LLMをベースとしたシンスライシングフレームワークをスケーラブルなフィードバックツールとして提案する。
関連論文リスト
- Large Language Models Penetration in Scholarly Writing and Peer Review [43.600778691549706]
学術的な視点と次元にまたがる大規模言語モデルの浸透を評価する。
本実験は,学術的プロセスにおけるLLMの役割の増大を明らかにするために,textttLLMetricaの有効性を実証した。
これらの知見は、学術的信頼性を維持するために、LLMの使用における透明性、説明責任、倫理的実践の必要性を強調した。
論文 参考訳(メタデータ) (2025-02-16T16:37:34Z) - Evaluating Large language models on Understanding Korean indirect Speech acts [0.6757476692230009]
本研究は,現在のLLMが発話の意図を,与えられた会話コンテキストを考慮し理解できるかどうかを評価する。
プロプライエタリなモデルは、オープンソースモデルに比べて比較的高いパフォーマンスを示した。
Claude3-Opusを除くほとんどのLLMは間接的音声行為の理解において著しく低い性能を示した。
論文 参考訳(メタデータ) (2025-02-16T04:59:19Z) - Potential and Perils of Large Language Models as Judges of Unstructured Textual Data [0.631976908971572]
本研究では,LLM-as-judgeモデルの有効性を検討した。
LLM-as-judgeは、人間に匹敵するスケーラブルなソリューションを提供するが、人間は微妙で文脈固有のニュアンスを検出するのに優れている。
論文 参考訳(メタデータ) (2025-01-14T14:49:14Z) - Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Advancing Annotation of Stance in Social Media Posts: A Comparative Analysis of Large Language Models and Crowd Sourcing [2.936331223824117]
ソーシャルメディア投稿における自動テキストアノテーションのための大規模言語モデル(LLM)は、大きな関心を集めている。
ソーシャルメディア投稿において,8つのオープンソースおよびプロプライエタリなLCMの性能分析を行った。
「我々の研究の顕著な発見は、姿勢を表わす文章の明快さが、LLMの姿勢判断が人間とどのように一致しているかにおいて重要な役割を担っていることである。」
論文 参考訳(メタデータ) (2024-06-11T17:26:07Z) - Are Large Language Models Reliable Judges? A Study on the Factuality
Evaluation Capabilities of LLMs [8.526956860672698]
大きな言語モデル(LLM)は、その顕著な能力のために注目を集めている。
本研究では,テキスト生成モデルにより生成された要約における事実整合性の信頼性評価としてのLCMの可能性について検討する。
論文 参考訳(メタデータ) (2023-11-01T17:42:45Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Benchmarking Large Language Models for News Summarization [79.37850439866938]
大規模言語モデル(LLM)は自動要約を約束しているが、その成功の背景にある理由はよく分かっていない。
LLMのゼロショット要約能力の鍵は、モデルサイズではなく、命令チューニングにある。
論文 参考訳(メタデータ) (2023-01-31T18:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。