論文の概要: Who is we? Disambiguating the referents of first person plural pronouns
in parliamentary debates
- arxiv url: http://arxiv.org/abs/2205.14182v1
- Date: Fri, 27 May 2022 18:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 06:09:56.666290
- Title: Who is we? Disambiguating the referents of first person plural pronouns
in parliamentary debates
- Title(参考訳): 私たちは誰ですか。
国会討論における一人称複数代名詞の紹介の曖昧化
- Authors: Ines Rehbein, Josef Ruppenhofer and Julian Bernauer
- Abstract要約: 代名詞参照を曖昧にするためのアノテーションスキーマを提案し、我々のスキーマを使用して、ドイツ連邦議会の議論の注釈付きコーパスを作成する。
そして、私たちのコーパスを使用して、議会の討論において、代名詞を自動で解決することを学びます。
- 参考スコア(独自算出の注目度): 9.09904590211839
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper investigates the use of first person plural pronouns as a
rhetorical device in political speeches. We present an annotation schema for
disambiguating pronoun references and use our schema to create an annotated
corpus of debates from the German Bundestag. We then use our corpus to learn to
automatically resolve pronoun referents in parliamentary debates. We explore
the use of data augmentation with weak supervision to further expand our corpus
and report preliminary results.
- Abstract(参考訳): 本稿では,政治演説における1人称複数代名詞の修辞的用法について検討する。
代名詞参照を曖昧にするためのアノテーションスキーマを提案し、我々のスキーマを使用してドイツ連邦議会の議論の注釈付きコーパスを作成する。
そして、我々のコーパスを使って、議会の討論会における代名詞参照を自動解決することを学ぶ。
我々は、コーパスをさらに拡大し、予備結果を報告するために、弱い監督でデータ拡張の利用を探求する。
関連論文リスト
- Audio-Visual Neural Syntax Acquisition [91.14892278795892]
視覚的音声からの句構造誘導について検討する。
本稿では,音声を聴いたり,画像を見たりすることでフレーズ構造を学習するAV-NSL(Audio-Visual Neural Syntax Learner)について述べる。
論文 参考訳(メタデータ) (2023-10-11T16:54:57Z) - A Corpus for Sentence-level Subjectivity Detection on English News
Articles [52.58681161666199]
文レベルで主観性検出のための新しいコーパスを提案する。
我々は,タスクのための新しいアノテーションガイドラインを開発し,それらを英語で新しいコーパスの作成に適用する。
この新たなリソースは、英語および他の言語で主観性検出のためのモデルを開発するための道を開く。
論文 参考訳(メタデータ) (2023-05-29T11:54:50Z) - Political corpus creation through automatic speech recognition on EU
debates [4.670305538969914]
我々は、EU議会のLIBE委員会の書き起こされたコーパスを提示し、合計360万のランニングワードを提示する。
EUの議会委員会の会合は、政治科学者にとって潜在的に価値のある情報源であるが、データは限られたメタデータと共に音声記録としてのみ公開されているため、簡単には入手できない。
我々は,会議の音声記録の正確なテキスト書き起こしを行うために,最も適切な自動音声認識(ASR)モデルについて検討した。
論文 参考訳(メタデータ) (2023-04-17T10:41:59Z) - Dialogs Re-enacted Across Languages [2.5425323889482336]
本稿では,言語間の発話を密にマッチングするプロトコルを提案する。
この報告の目的は、このコーパスを使用する人々、このコーパスを拡張する人々、および類似のバイリンガルダイアログデータを設計することである。
論文 参考訳(メタデータ) (2022-11-18T17:08:12Z) - BasqueParl: A Bilingual Corpus of Basque Parliamentary Transcriptions [3.4447242282168777]
バスク議会文書から新たに編纂されたコーパスの最初のバージョンをリリースする。
このコーパスはバスク語とスペイン語の重厚なコードスイッチングが特徴であり、バスク語やスペイン語のような対照的な言語で政治的言説を研究するための興味深い資源となっている。
論文 参考訳(メタデータ) (2022-05-03T14:02:24Z) - DEBACER: a method for slicing moderated debates [55.705662163385966]
同じ主題を持つブロックに議論を分割することは理解に不可欠である。
議論を適度に分割する新しいアルゴリズムDEBACERを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:39:07Z) - Explaining Latent Representations with a Corpus of Examples [72.50996504722293]
本稿では,サンプルベースの説明を自由に選択されたサンプル集合を参照して提供するユーザ中心の手法であるSimplExを提案する。
SimplExは、ポストホックな説明で潜伏空間に対するユーザの理解を改善するためにコーパスを使用する。
SimplExは,モデル表現を説明するコーパス内の関連パターンを強調表示することで,ユーザを力づけることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:59:06Z) - Exophoric Pronoun Resolution in Dialogues with Topic Regularization [84.23706744602217]
代名詞を参照語に分解することは、長い間、基礎的な自然言語理解問題として研究されてきた。
代名詞仲裁解決法(PCR)に関するこれまでの研究は、概ね、エクソフォリックなシナリオを無視しながら、テキストで言及する代名詞を解消することに焦点を当てていた。
本稿では,会話の局所的文脈とグローバルな話題を協調的に活用して,アウト・オブ・テクスチャPCRの問題を解決することを提案する。
論文 参考訳(メタデータ) (2021-09-10T11:08:31Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - The Discussion Tracker Corpus of Collaborative Argumentation [2.800857580710507]
ディベート・トラッカー・コーパスはアメリカ高校の英語の授業で収集された。
コーパスは、985分間の音声から書き起こされた英文学に関する29の多党の議論で構成されている。
論文 参考訳(メタデータ) (2020-05-22T18:27:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。