論文の概要: Annotation Tool and Dataset for Fact-Checking Podcasts
- arxiv url: http://arxiv.org/abs/2502.01402v1
- Date: Mon, 03 Feb 2025 14:34:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:18.795088
- Title: Annotation Tool and Dataset for Fact-Checking Podcasts
- Title(参考訳): Fact-Checking Podcast のアノテーションツールとデータセット
- Authors: Vinay Setty, Adam James Becker,
- Abstract要約: ポッドキャストはウェブ上で人気のあるメディアであり、多言語コンテンツが多種多様で、しばしば不確定なクレームを含んでいる。
我々のツールは、再生中にコンテキストのリアルタイムアノテーションを有効にすることで、これらの課題に対処するための新しいアプローチを提供する。
このユニークな機能は、ユーザがポッドキャストを聴いて、チェック価値のあるクレーム、クレームスパン、コンテキストエラーなどの重要な要素を同時にアノテートすることを可能にする。
- 参考スコア(独自算出の注目度): 1.6804613362826175
- License:
- Abstract: Podcasts are a popular medium on the web, featuring diverse and multilingual content that often includes unverified claims. Fact-checking podcasts is a challenging task, requiring transcription, annotation, and claim verification, all while preserving the contextual details of spoken content. Our tool offers a novel approach to tackle these challenges by enabling real-time annotation of podcasts during playback. This unique capability allows users to listen to the podcast and annotate key elements, such as check-worthy claims, claim spans, and contextual errors, simultaneously. By integrating advanced transcription models like OpenAI's Whisper and leveraging crowdsourced annotations, we create high-quality datasets to fine-tune multilingual transformer models such as XLM-RoBERTa for tasks like claim detection and stance classification. Furthermore, we release the annotated podcast transcripts and sample annotations with preliminary experiments.
- Abstract(参考訳): Podcastsはウェブ上で人気の高いメディアであり、多言語コンテンツが多種多様で、しばしば不確実なクレームを含んでいる。
Fact-checkingポッドキャストは、音声コンテンツのコンテキストの詳細を保存しながら、書き起こし、アノテーション、クレーム検証を必要とする、難しいタスクである。
本ツールは,再生中のポッドキャストのリアルタイムアノテーションを有効にすることで,これらの課題に対処するための新しいアプローチを提供する。
このユニークな機能は、ユーザがポッドキャストを聴いて、チェック価値のあるクレーム、クレームスパン、コンテキストエラーなどの重要な要素を同時にアノテートすることを可能にする。
OpenAIのWhisperのような高度な転写モデルを統合し、クラウドソースアノテーションを活用することで、クレーム検出やスタンス分類といったタスクのために、XLM-RoBERTaのようなマルチリンガルトランスフォーマーモデルに高品質なデータセットを作成します。
さらに,アノテートされたポッドキャストの書き起こしとサンプルアノテーションを予備実験でリリースする。
関連論文リスト
- Can Language Models Learn to Listen? [96.01685069483025]
本稿では,話者の言葉に基づく社会的対話における聞き手から適切な表情応答を生成するための枠組みを提案する。
提案手法は,VQ-VAEを用いて定量化したリスナーの顔のジェスチャー列であるリスナーの応答を自己回帰的に予測する。
生成したリスナーの動きは,定量的メトリクスと質的ユーザスタディを通じて,言語意味論に精通し,反映していることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:59:02Z) - WavCaps: A ChatGPT-Assisted Weakly-Labelled Audio Captioning Dataset for Audio-Language Multimodal Research [82.42802570171096]
約400kの音声クリップとペアキャプションを組み合わせた,大規模な音声キャプションデータセットであるWavCapsを紹介した。
オンラインハーベストな生の記述は非常にうるさいし、自動音声キャプションなどのタスクで直接使うには適さない。
本稿では,大規模な言語モデルであるChatGPTを用いて,ノイズの多いデータをフィルタリングし,高品質なキャプションを生成するための3段階処理パイプラインを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:07:47Z) - WAVPROMPT: Towards Few-Shot Spoken Language Understanding with Frozen
Language Models [57.557319372969495]
大量のテキストで事前訓練された大規模自動回帰言語モデルは、新しい自然言語タスクを実行するという印象的な能力を示している。
近年の研究では、エンコーダを訓練し、画像のエンコードを埋め込みにすることで、このような数発の学習能力をテキスト画像設定にまで拡張できることが示されている。
そこで我々は,wav2vecモデルを微調整して,言語モデルによって理解された音声埋め込みのシーケンスを生成する,新しい音声理解フレームワークWavPromptを提案する。
論文 参考訳(メタデータ) (2022-03-29T19:08:55Z) - Towards Abstractive Grounded Summarization of Podcast Transcripts [33.268079036601634]
ポッドキャストの書き起こしの要約は、コンテンツ提供者と消費者の両方にとって実用的な利益である。
これは、コンシューマーがポッドキャストを聴くかどうかを素早く判断し、要約を書くためのコンテンツプロバイダの負荷を減らすのに役立つ。
しかし、ポッドキャストの要約は、入力に関する事実上の矛盾を含む重大な課題に直面している。
論文 参考訳(メタデータ) (2022-03-22T02:44:39Z) - Identifying Introductions in Podcast Episodes from Automatically
Generated Transcripts [0.0]
400以上のポッドキャストエピソードの完全な書き起こしのデータセットを新たに構築する。
これらの紹介には、エピソードのトピック、ホスト、ゲストに関する情報が含まれている。
我々は、事前訓練されたBERTと異なる拡張戦略に基づいて、3つのTransformerモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-14T00:34:51Z) - Topic Model Robustness to Automatic Speech Recognition Errors in Podcast
Transcripts [4.526933031343007]
本研究では,音声認識エンジンが生成した転写文に適用した場合の潜在ディリクレ割当トピックモデルのロバスト性について検討する。
まず,自動文字起こしによる話題埋め込みとポッドキャスト作成者によるポッドキャスト記述のコサイン類似度スコアのベースラインを観察する。
そして、転写ノイズの増加に伴ってコサインの類似度が減少する様子を観察し、自動音声認識文字が誤りである場合でも、その転写から高品質なトピック埋め込みを得ることができると結論づける。
論文 参考訳(メタデータ) (2021-09-25T07:59:31Z) - Annotation Curricula to Implicitly Train Non-Expert Annotators [56.67768938052715]
自発的な研究は、しばしば、アノテータがタスク、そのアノテーションスキーム、およびデータドメインに精通することを要求する。
これは最初は圧倒的であり、精神的に課税され、結果として生じるアノテーションにエラーを誘導する。
暗黙的にアノテータを訓練する新しい手法であるアノテーションキュリキュラを提案する。
論文 参考訳(メタデータ) (2021-06-04T09:48:28Z) - Detecting Extraneous Content in Podcasts [6.335863593761816]
本稿では,ポッドキャスト記述と音声書き起こしの不要なコンテンツを検出するために,テキストパターンとリスニングパターンの両方を利用するモデルを提案する。
本モデルでは,ROUGEスコアを瞬時に改善し,要約で生成された外部コンテンツを減らすことができることを示す。
論文 参考訳(メタデータ) (2021-03-03T18:30:50Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - PodSumm -- Podcast Audio Summarization [0.0]
テキストドメインからのガイダンスを用いて,ポッドキャストの要約を自動的に作成する手法を提案する。
このタスクにはデータセットが不足しているため、内部データセットをキュレートし、データ拡張の効果的なスキームを見つけ、アノテータから要約を集めるためのプロトコルを設計する。
本手法は, ROUGE-F(1/2/L) スコア0.63/0.53/0.63をデータセット上で達成する。
論文 参考訳(メタデータ) (2020-09-22T04:49:33Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。