論文の概要: When AI companions become witty: Can human brain recognize AI-generated irony?
- arxiv url: http://arxiv.org/abs/2510.17168v1
- Date: Mon, 20 Oct 2025 05:15:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.017067
- Title: When AI companions become witty: Can human brain recognize AI-generated irony?
- Title(参考訳): AI仲間が賢くなるとき:人間の脳はAIが生成する皮肉を認識できるのか?
- Authors: Xiaohui Rao, Hanlin Wu, Zhenguang G. Cai,
- Abstract要約: 本研究は、意図的な姿勢を採り入れ、行動の説明に精神状態をもたらすか、皮肉な理解の過程でAIへ向けて検討する。
我々は、AIからの皮肉な発言に対する行動的反応と神経的反応を比較した。
結果は、人々がAI生成の皮肉に対する意図的なスタンスを完全には採用していないことを示している。
- 参考スコア(独自算出の注目度): 2.859021383061256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) are increasingly deployed as social agents and trained to produce humor and irony, a question emerges: when encountering witty AI remarks, do people interpret these as intentional communication or mere computational output? This study investigates whether people adopt the intentional stance, attributing mental states to explain behavior,toward AI during irony comprehension. Irony provides an ideal paradigm because it requires distinguishing intentional contradictions from unintended errors through effortful semantic reanalysis. We compared behavioral and neural responses to ironic statements from AI versus human sources using established ERP components: P200 reflecting early incongruity detection and P600 indexing cognitive efforts in reinterpreting incongruity as deliberate irony. Results demonstrate that people do not fully adopt the intentional stance toward AI-generated irony. Behaviorally, participants attributed incongruity to deliberate communication for both sources, though significantly less for AI than human, showing greater tendency to interpret AI incongruities as computational errors. Neural data revealed attenuated P200 and P600 effects for AI-generated irony, suggesting reduced effortful detection and reanalysis consistent with diminished attribution of communicative intent. Notably, people who perceived AI as more sincere showed larger P200 and P600 effects for AI-generated irony, suggesting that intentional stance adoption is calibrated by specific mental models of artificial agents. These findings reveal that source attribution shapes neural processing of social-communicative phenomena. Despite current LLMs' linguistic sophistication, achieving genuine social agency requires more than linguistic competence, it necessitates a shift in how humans perceive and attribute intentionality to artificial agents.
- Abstract(参考訳): 大規模言語モデル(LLM)は、社会エージェントとしてますます多くデプロイされ、ユーモアと皮肉を生み出すために訓練されているので、疑問が浮かび上がってくる。
本研究は、意図的な姿勢を採り入れ、行動の説明に精神状態をもたらすか、皮肉な理解の過程でAIへ向けて検討する。
アイアンリーは、意図しない誤りと意図しない誤りを、厳密な意味的再分析によって区別する必要があるため、理想的なパラダイムを提供する。
我々は、AIからの皮肉文に対する行動と神経の反応を、確立されたERP成分を用いて比較した:P200は早期不一致検出を反映し、P600は不一致を意図的な皮肉として再解釈する認知的努力を指標とした。
結果は、人々がAI生成の皮肉に対する意図的なスタンスを完全には採用していないことを示している。
行動学的には、参加者は両者の情報源の意図的なコミュニケーションに矛盾があると考えたが、AIが人間よりもはるかに少ないため、AIの不一致を計算ミスと解釈する傾向が強かった。
神経学的データから、AI生成したアイロンに対するP200とP600の効果が減少し、コミュニケーション意図の帰属が減少すると共に、精力的な検出と再分析が減少したことが示唆された。
特に、AIをより誠実に捉えた人々は、AI生成の皮肉に対してより大きなP200とP600効果を示し、意図的なスタンスの採用は、人工エージェントの特定のメンタルモデルによって調整されていることを示唆している。
これらの結果から,情報源の属性が社会的コミュニケーション現象のニューラル処理を形作ることが明らかとなった。
現在のLLMの言語的洗練にもかかわらず、真の社会的エージェンシーを達成するには言語的能力以上のものが必要であるが、人間が人工エージェントに対して意図性をどう知覚し、評価するかを変える必要がある。
関連論文リスト
- A funny companion: Distinct neural responses to perceived AI- versus human-generated humor [2.859021383061256]
この研究は脳波学(EEG)を用いて、人々がAIからユーモアをどのように処理するかを人間の情報源と比較した。
結果:AIのユーモアはN400効果を小さくし,不整合処理時の認知力の低下を示唆した。
これらの結果は、驚くほどポジティブで激しい反応で、脳がAIのユーモアに反応することを示している。
論文 参考訳(メタデータ) (2025-09-13T15:05:57Z) - Hallucination vs interpretation: rethinking accuracy and precision in AI-assisted data extraction for knowledge synthesis [0.9898534984111934]
我々は,大規模言語モデル(LLM)を用いてデータ抽出を自動化する抽出プラットフォームを開発した。
我々は、AIを187の出版物で人間の反応と比較し、スコーピングレビューから17の質問を抽出した。
AIの多様性は幻覚よりも解釈可能性に依存している。
論文 参考訳(メタデータ) (2025-08-13T03:33:30Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Can Machines Imitate Humans? Integrative Turing-like tests for Language and Vision Demonstrate a Narrowing Gap [56.611702960809644]
3つの言語タスクと3つの視覚タスクで人間を模倣するAIの能力をベンチマークする。
次に,人間1,916名,AI10名を対象に,72,191名のチューリング様試験を行った。
模倣能力は従来のAIパフォーマンス指標と最小限の相関を示した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。