論文の概要: When A Man Says He Is Pregnant: ERP Evidence for A Rational Account of Speaker-contextualized Language Comprehension
- arxiv url: http://arxiv.org/abs/2409.17525v1
- Date: Thu, 26 Sep 2024 04:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 23:06:47.838219
- Title: When A Man Says He Is Pregnant: ERP Evidence for A Rational Account of Speaker-contextualized Language Comprehension
- Title(参考訳): 話し言葉理解の合理的な説明のためのERPエビデンス
- Authors: Hanlin Wu, Zhenguang G. Cai,
- Abstract要約: 事象関連電位(ERP)研究は、そのような話者ミスマッチした発話に対する神経生理学的反応について混合の結果を示した。
これらの異なるERP効果は、話者とメッセージのミスマッチを解決するために使用される認知過程を反映していることを示す。
本研究は,文献における経験的不整合の解明に役立ち,話者文脈言語理解の合理的な説明を提供する。
- 参考スコア(独自算出の注目度): 0.9514940899499753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spoken language is often, if not always, understood in a context that includes the identities of speakers. For instance, we can easily make sense of an utterance such as "I'm going to have a manicure this weekend" or "The first time I got pregnant I had a hard time" when the utterance is spoken by a woman, but it would be harder to understand when it is spoken by a man. Previous event-related potential (ERP) studies have shown mixed results regarding the neurophysiological responses to such speaker-mismatched utterances, with some reporting an N400 effect and others a P600 effect. In an experiment involving 64 participants, we showed that these different ERP effects reflect distinct cognitive processes employed to resolve the speaker-message mismatch. When possible, the message is integrated with the speaker context to arrive at an interpretation, as in the case of violations of social stereotypes (e.g., men getting a manicure), resulting in an N400 effect. However, when such integration is impossible due to violations of biological knowledge (e.g., men getting pregnant), listeners engage in an error correction process to revise either the perceived utterance or the speaker context, resulting in a P600 effect. Additionally, we found that the social N400 effect decreased as a function of the listener's personality trait of openness, while the biological P600 effect remained robust. Our findings help to reconcile the empirical inconsistencies in the literature and provide a rational account of speaker-contextualized language comprehension.
- Abstract(参考訳): 音声言語は、必ずしも必ずしも、話者のアイデンティティを含む文脈で理解されることが多い。
例えば、「今週末はマニキュアをする」とか「初めて妊娠したときは辛かった」といった発声は女性に話しかけられるが、いつ男性に話しかけられるかは理解しづらい。
これまでの事象関連電位(ERP)研究は、このような話者ミスマッチした発話に対する神経生理学的反応について、N400効果やP600効果が報告されている。
64名の被験者を対象に実験を行ったところ,これらのERP効果は話者・メッセージミスマッチの解消に使用される認知過程を反映していることが判明した。
可能であれば、メッセージは話者コンテキストと統合され、社会的ステレオタイプ(例えば、男性がマニキュアを受けるなど)の違反の場合のように解釈に到達し、N400効果をもたらす。
しかし、生物学的知識の侵害(例えば、男性が妊娠するなど)により、そのような統合が不可能な場合、聴取者は、認識された発話または話者コンテキストを修正するための誤り訂正プロセスに従事し、結果としてP600効果が生じる。
さらに, 社会的N400効果は, 聴取者の個性と開放性の機能として低下し, 生物学的P600効果は健在であった。
本研究は,文献における経験的不整合の解明に役立ち,話者文脈言語理解の合理的な説明を提供する。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Large Language Models Can Infer Personality from Free-Form User Interactions [0.0]
GPT-4は、パーソナリティを適度な精度で推測することができ、以前のアプローチよりも優れていた。
その結果,人格評価への直接的注力は,ユーザエクスペリエンスの低下を招いていないことがわかった。
予備的な分析は、人格推定の正確さは、社会デミノグラフィーのサブグループによってわずかに異なることを示唆している。
論文 参考訳(メタデータ) (2024-05-19T20:33:36Z) - Do Large Language Models Show Decision Heuristics Similar to Humans? A
Case Study Using GPT-3.5 [0.0]
GPT-3.5は、ChatGPTと呼ばれる会話エージェントをサポートするLLMの例である。
本研究では,ChatGPTがバイアスを示すか,その他の決定効果を示すかを決定するために,一連の新しいプロンプトを用いた。
また、同じプロンプトをヒトでもテストしました。
論文 参考訳(メタデータ) (2023-05-08T01:02:52Z) - Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs [77.88043871260466]
私たちは、今日の最大の言語モデルのひとつに、このようなソーシャルインテリジェンスを最初から欠いていることを示しています。
我々は、人中心のNLPアプローチは、マインドの神経理論に対してより効果的であるかもしれないと結論づける。
論文 参考訳(メタデータ) (2022-10-24T14:58:58Z) - Dead or Murdered? Predicting Responsibility Perception in Femicide News
Reports [10.189255026322996]
異なる言語的選択が、責任に対する異なる認識を引き起こすことを示す。
この研究は、異なるパースペクティブ化の結果に対する認識を高めるための中核的な手段となる。
論文 参考訳(メタデータ) (2022-09-24T15:14:03Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Fairness in Rating Prediction by Awareness of Verbal and Gesture Quality
of Public Speeches [5.729787815551408]
私たちは、口頭領域と非言語領域の両方でトークの質を定量化する新しいヘテロジニティメトリック、HEMを公式化します。
HEMとTEDトークの視聴者による評価との間には興味深い関係があることが示されている。
我々は,HEMの指標をニューラルネットワークの損失関数に組み込んで,人種や性別に関する評価予測における不公平さを低減することを目的とする。
論文 参考訳(メタデータ) (2020-12-11T06:36:55Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Can you hear me $\textit{now}$? Sensitive comparisons of human and
machine perception [3.8580784887142774]
我々は、この非対称性が、人間と機械の知覚の重なり合いを誤って推定する比較をいかに引き起こすかを探る。
5つの実験において、人間の心理物理学文献のタスクデザインを適用し、被験者がそのような音声コマンドを自由に書き起こせない場合でも、他の形態の理解を示せることを示す。
我々は、人間と機械の知覚を比較する際に、このような「敏感なテスト」を採用することを推奨する。
論文 参考訳(メタデータ) (2020-03-27T16:24:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。