論文の概要: Speaker attribution in German parliamentary debates with QLoRA-adapted
large language models
- arxiv url: http://arxiv.org/abs/2309.09902v1
- Date: Mon, 18 Sep 2023 16:06:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:31:35.192020
- Title: Speaker attribution in German parliamentary debates with QLoRA-adapted
large language models
- Title(参考訳): QLoRA適応大言語モデルによるドイツの議会討論における話者帰属
- Authors: Tobias Bornheim, Niklas Grieger, Patrick Gustav Blaneck, Stephan
Bialonski
- Abstract要約: 我々は,2017-2021年のドイツ議会討論会において,大型言語モデルLlama 2の話者属性の自動化の可能性について検討した。
本稿の結果は,話者帰属の自動化における大規模言語モデルの能力に光を当て,政治談話の計算分析や意味的役割ラベルシステムの開発に期待できる道のりを明らかにした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing body of political texts opens up new opportunities for rich
insights into political dynamics and ideologies but also increases the workload
for manual analysis. Automated speaker attribution, which detects who said what
to whom in a speech event and is closely related to semantic role labeling, is
an important processing step for computational text analysis. We study the
potential of the large language model family Llama 2 to automate speaker
attribution in German parliamentary debates from 2017-2021. We fine-tune Llama
2 with QLoRA, an efficient training strategy, and observe our approach to
achieve competitive performance in the GermEval 2023 Shared Task On Speaker
Attribution in German News Articles and Parliamentary Debates. Our results shed
light on the capabilities of large language models in automating speaker
attribution, revealing a promising avenue for computational analysis of
political discourse and the development of semantic role labeling systems.
- Abstract(参考訳): 政治文書の増加は、政治のダイナミクスとイデオロギーに対する豊富な洞察の新たな機会を開く一方で、手動分析のための作業負荷も増大する。
自動話者帰属(automated speaker attribution, 自動話者帰属)は、音声イベントにおいて誰が誰と何を話したかを検知し、意味的役割ラベリングと密接に関連している。
我々は,2017-2021年のドイツ議会討論会において,大型言語モデルLlama 2の話者属性の自動化の可能性について検討した。
我々は,効率的なトレーニング戦略であるQLoRAを用いてLlama 2を微調整し,ドイツのニュース記事や議会討論会におけるGermEval 2023Shared Task on Speaker Attributionにおける競争性能を達成するためのアプローチを観察する。
本稿の結果は,話者帰属の自動化における大規模言語モデルの能力に光を当て,政治談話の計算分析や意味的役割ラベルシステムの開発に期待できる道のりを明らかにした。
関連論文リスト
- SpeakGer: A meta-data enriched speech corpus of German state and federal parliaments [0.12277343096128711]
SpeakGerデータセットは、1947年から2023年までのドイツ連邦議会とドイツ連邦議会の16州すべてからの議論で構成されている。
このデータセットには、聴衆からのスピーチに対する反応と、講演者のパーティー、年齢、選挙区、政党の政治的アライメントに関する情報という形で、豊富なメタデータが含まれている。
論文 参考訳(メタデータ) (2024-10-23T14:00:48Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - The ParlaSent Multilingual Training Dataset for Sentiment Identification in Parliamentary Proceedings [0.0]
そこで本論文では,感傷的に手動で注釈付けした7言語による文のトレーニングデータセットを提案する。
さらに、政治科学応用のためのドメイン固有多言語トランスフォーマー言語モデルについても紹介する。
論文 参考訳(メタデータ) (2023-09-18T14:01:06Z) - AudioPaLM: A Large Language Model That Can Speak and Listen [79.44757696533709]
本稿では,音声理解・生成のための大規模言語モデルであるAudioPaLMを紹介する。
AudioPaLMはテキストベースの言語モデルと音声ベースの言語モデルを融合する。
音声認識や音声音声翻訳などの応用により、テキストと音声を処理および生成することができる。
論文 参考訳(メタデータ) (2023-06-22T14:37:54Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - XAI in Computational Linguistics: Understanding Political Leanings in
the Slovenian Parliament [4.721944974277117]
この研究は、議会の書き起こしを通じて政治的傾きを予測する機械学習モデルの開発と説明可能性について論じている。
我々は、スロベニア議会と欧州移民危機に関する熱い議論に集中しており、2014年から2020年までの書き起こしを行っている。
従来の機械学習モデルとトランスフォーマー言語モデルの両方を開発し、移民の話題に関する発言に基づいて、議会議員の左派または右派を予測した。
論文 参考訳(メタデータ) (2023-05-08T11:19:21Z) - Political corpus creation through automatic speech recognition on EU
debates [4.670305538969914]
我々は、EU議会のLIBE委員会の書き起こされたコーパスを提示し、合計360万のランニングワードを提示する。
EUの議会委員会の会合は、政治科学者にとって潜在的に価値のある情報源であるが、データは限られたメタデータと共に音声記録としてのみ公開されているため、簡単には入手できない。
我々は,会議の音声記録の正確なテキスト書き起こしを行うために,最も適切な自動音声認識(ASR)モデルについて検討した。
論文 参考訳(メタデータ) (2023-04-17T10:41:59Z) - ERNIE-SAT: Speech and Text Joint Pretraining for Cross-Lingual
Multi-Speaker Text-to-Speech [58.93395189153713]
言語間複数話者音声合成タスクの事前学習法を拡張した。
本稿では,スペクトルと音素をランダムにマスキングする,音声・テキスト共同事前学習フレームワークを提案する。
本モデルは,話者埋め込み型マルチスピーカTS法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-07T13:35:16Z) - A Review of Speaker Diarization: Recent Advances with Deep Learning [78.20151731627958]
スピーカーダイアリゼーションは、スピーカーのアイデンティティに対応するクラスでオーディオまたはビデオ録画をラベル付けするタスクです。
ディープラーニング技術の台頭に伴い、話者ダイアリゼーションのためのさらなる急速な進歩がなされている。
話者ダイアリゼーションシステムが音声認識アプリケーションとどのように統合されているかについて議論する。
論文 参考訳(メタデータ) (2021-01-24T01:28:05Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。