論文の概要: TalkUp: Paving the Way for Understanding Empowering Language
- arxiv url: http://arxiv.org/abs/2305.14326v2
- Date: Mon, 23 Oct 2023 06:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 11:54:47.021203
- Title: TalkUp: Paving the Way for Understanding Empowering Language
- Title(参考訳): talkup: エンパワーメント言語を理解するための道を開く
- Authors: Lucille Njoo, Chan Young Park, Octavia Stappart, Marvin Thielk, Yi Chu
and Yulia Tsvetkov
- Abstract要約: この研究は言語学と社会心理学の文献から構築され、力のある言語を特徴付けるものを探究する。
われわれは、エンパワーメントのためにラベル付けされたRedditの投稿の新しいデータセットをクラウドソースした。
予備的な分析では、このデータセットが、エンパワーメントと非エンパワーメント言語をキャプチャする言語モデルをトレーニングするために使用できることを示している。
- 参考スコア(独自算出の注目度): 38.873632974397744
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Empowering language is important in many real-world contexts, from education
to workplace dynamics to healthcare. Though language technologies are growing
more prevalent in these contexts, empowerment has seldom been studied in NLP,
and moreover, it is inherently challenging to operationalize because of its
implicit nature. This work builds from linguistic and social psychology
literature to explore what characterizes empowering language. We then
crowdsource a novel dataset of Reddit posts labeled for empowerment, reasons
why these posts are empowering to readers, and the social relationships between
posters and readers. Our preliminary analyses show that this dataset, which we
call TalkUp, can be used to train language models that capture empowering and
disempowering language. More broadly, TalkUp provides an avenue to explore
implication, presuppositions, and how social context influences the meaning of
language.
- Abstract(参考訳): 教育から職場のダイナミクス、医療に至るまで、多くの現実世界の文脈において、言語エンパワーメントは重要である。
言語技術はこれらの文脈で広く普及しているが、エンパワーメントはnlpではほとんど研究されていない。
この研究は、言語と社会心理学の文献から生まれ、言語を力づけることの特徴を探求する。
次に私たちは、エンパワーメントのためにラベル付けされたreddit投稿の新しいデータセット、これらの投稿が読者に権限を与える理由、ポスターと読者の間の社会的関係をクラウドソースします。
予備分析の結果、TalkUpと呼ばれるこのデータセットは、エンパワーメントと非エンパワーメント言語をキャプチャする言語モデルのトレーニングに使用することができることがわかった。
より広範に、TalkUpは意味、前提、社会的文脈が言語の意味にどのように影響するかを探求するための道筋を提供する。
関連論文リスト
- Multilingual Evaluation of Semantic Textual Relatedness [0.0]
意味的テクスト関係性(STR)は、言語的要素や話題、感情、視点といった非言語的要素を考慮して、表面的な単語重複を越えている。
以前のNLP研究は主に英語に焦点を合わせており、言語間の適用性を制限している。
Marathi、Hindi、スペイン語、英語でSTRを探索し、情報検索や機械翻訳などの可能性を解き放つ。
論文 参考訳(メタデータ) (2024-04-13T17:16:03Z) - Riveter: Measuring Power and Social Dynamics Between Entities [20.672174024510745]
Riveterはテキストコーパスのエンティティに関連する動詞の意味を分析するための完全なパイプラインを提供する。
このパッケージには感情、力、エージェンシーといった意味の枠組みが組み込まれており、社会現象を捉えるのに有用であることが示されている。
論文 参考訳(メタデータ) (2023-12-15T05:03:24Z) - BabySLM: language-acquisition-friendly benchmark of self-supervised
spoken language models [56.93604813379634]
音声表現を学習するための自己指導技術は、人間のラベルを必要とせずに、音声への露出から言語能力を高めることが示されている。
語彙および構文レベルで音声言語モデルを探索するために,言語習得に親しみやすいベンチマークを提案する。
テキストと音声のギャップを埋めることと、クリーンな音声とその内話のギャップを埋めることである。
論文 参考訳(メタデータ) (2023-06-02T12:54:38Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - Bridging the Gap: Using Deep Acoustic Representations to Learn Grounded
Language from Percepts and Raw Speech [26.076534338576234]
自然言語と知覚を結びつける基底言語を理解することは、重要な研究分野である。
本研究は,2つの視覚的知覚と生音声入力に基づいて,基底言語習得の実現可能性を示す。
論文 参考訳(メタデータ) (2021-12-27T16:12:30Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Self-play for Data Efficient Language Acquisition [20.86261546611472]
学習エージェントにおける言語習得の効率と品質を向上させるために,コミュニケーションの対称性を利用する。
直接監督の代わりにセルフプレイを使用することで、エージェントが役割間で知識を伝達できることが示される。
論文 参考訳(メタデータ) (2020-10-10T02:09:19Z) - Experience Grounds Language [185.73483760454454]
言語理解研究は、言語が記述する物理的世界と、それが促進する社会的相互作用とを関連づけることに失敗している。
テキストだけで訓練された後にタスクに取り組むための言語処理モデルの驚くべき効果にもかかわらず、成功した言語コミュニケーションは世界の共有経験に依存している。
論文 参考訳(メタデータ) (2020-04-21T16:56:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。