論文の概要: Non-Verbal Vocalisations and their Challenges: Emotion, Privacy, Sparseness, and Real Life
- arxiv url: http://arxiv.org/abs/2508.01960v1
- Date: Sun, 03 Aug 2025 23:59:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 14:38:18.518407
- Title: Non-Verbal Vocalisations and their Challenges: Emotion, Privacy, Sparseness, and Real Life
- Title(参考訳): 非言語ボカライゼーションと課題:感情、プライバシ、スパースネス、リアルライフ
- Authors: Anton Batliner, Shahin Amiriparian, Björn W. Schuller,
- Abstract要約: 非言語ボカライゼーション(Non-Verbal Vocalisations、NVV)は、適切な言語的意味(意味)を持たず、意味を伝達する短いノンワードの発話である。
プライバシーと一般的な倫理的配慮は、現実のシナリオにおいて十分な程度に記録されることを防ぐ。
これらの問題を克服するためのコーパスベースのアプローチを支持する。
- 参考スコア(独自算出の注目度): 51.36891012448603
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Non-Verbal Vocalisations (NVVs) are short `non-word' utterances without proper linguistic (semantic) meaning but conveying connotations -- be this emotions/affects or other paralinguistic information. We start this contribution with a historic sketch: how they were addressed in psychology and linguistics in the last two centuries, how they were neglected later on, and how they came to the fore with the advent of emotion research. We then give an overview of types of NVVs (formal aspects) and functions of NVVs, exemplified with the typical NVV \textit{ah}. Interesting as they are, NVVs come, however, with a bunch of challenges that should be accounted for: Privacy and general ethical considerations prevent them of being recorded in real-life (private) scenarios to a sufficient extent. Isolated, prompted (acted) exemplars do not necessarily model NVVs in context; yet, this is the preferred strategy so far when modelling NVVs, especially in AI. To overcome these problems, we argue in favour of corpus-based approaches. This guarantees a more realistic modelling; however, we are still faced with privacy and sparse data problems.
- Abstract(参考訳): 非言語音声(Non-Verbal Vocalisations、NVV)は、適切な言語的意味(意味)を持たない短い「非単語」の発話であり、意味を伝えることは、このような感情/感情または他のパラ言語的な情報である。
この貢献は、過去2世紀に心理学や言語学でどのように扱われたのか、どのように無視されたのか、そして感情研究の出現とともにどのように前線に現れたのかという歴史的なスケッチから始まります。
次に、典型的NVV \textit{ah} を例に、NVVのタイプ(形式的側面)とNVVの関数の概要を示す。
プライバシーと一般的な倫理的配慮は、現実の(プライベートな)シナリオで記録されることを十分に防ぎます。
分離、誘導(実行)された例は、必ずしもNVVを文脈でモデル化するわけではないが、特にAIでNVVをモデル化する場合、これは好ましい戦略である。
これらの問題を克服するために、我々はコーパスベースのアプローチを支持する。
これにより、より現実的なモデリングが保証されますが、プライバシと疎結合なデータ問題に直面しています。
関連論文リスト
- From job titles to jawlines: Using context voids to study generative AI systems [8.922064415249626]
生成AIシステムの振る舞いを研究するための投機的設計手法を提案する。
我々は,意図的文脈空白を生成するために,一見無関係な領域をブリッジすることを提案する。
この文脈では、AIシステムは偏りのある表現を生成する。
論文 参考訳(メタデータ) (2025-04-16T06:51:12Z) - Vision-Language Models Do Not Understand Negation [50.27667000027403]
NegBenchは18のタスクバリエーションと79ドルのサンプルに対する否定的理解を評価するために設計されたベンチマークである。
提案手法は, 否定的クエリに対するリコールが10%増加し, 否定的キャプションを用いた複数質問に対する精度が28%向上することを示す。
論文 参考訳(メタデータ) (2025-01-16T09:55:42Z) - NMT-Obfuscator Attack: Ignore a sentence in translation with only one word [54.22817040379553]
我々はNMTモデルに対する新たなタイプの敵攻撃を提案する。
我々の攻撃は、NMTモデルに入力の第2部を50%以上のケースで無視させることに成功した。
論文 参考訳(メタデータ) (2024-11-19T12:55:22Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Trade-Offs Between Fairness and Privacy in Language Modeling [21.871472858598487]
既存の研究では、プライバシーの保護は分類タスクにおけるバイアスの悪化の価格に関係していることが示唆されている。
プライバシ保護とデバイアス技術の両方をテキスト生成モデルのトレーニングに組み込むことで、このトレードオフが本当に保持する範囲について検討する。
バイアス検出、プライバシ攻撃、言語モデリング、下流タスクのパフォーマンスなど、幅広い実験を行います。
論文 参考訳(メタデータ) (2023-05-24T09:18:28Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - A Case Report On The "A.I. Locked-In Problem": social concerns with
modern NLP [0.0]
OpenAIによるGPT-3のような大規模言語モデル(LLM)は、物語の構築と追跡が可能であることが知られている。
しかし, GPT-3 を用いた実用実験により, 現代の NLP システムには繰り返し発生する問題があることが示唆された。
これは「ロックイン問題」と呼ばれ、実験事例報告で例示されている。
論文 参考訳(メタデータ) (2022-09-22T16:39:35Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - Language Models have a Moral Dimension [13.991481870016631]
近年のlms改善は社会の倫理的・道徳的価値を蓄積している。
これは、LMの有害な変性を抑制または予防するための経路を提供する。
論文 参考訳(メタデータ) (2021-03-08T16:59:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。