論文の概要: Lost Before Translation: Social Information Transmission and Survival in AI-AI Communication
- arxiv url: http://arxiv.org/abs/2602.17674v1
- Date: Wed, 21 Jan 2026 17:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.492514
- Title: Lost Before Translation: Social Information Transmission and Survival in AI-AI Communication
- Title(参考訳): AI-AIコミュニケーションにおける社会的情報伝達と生存
- Authors: Bijean Ghafouri, Emilio Ferrara,
- Abstract要約: AIがAIと対話する際に何が起こるかを研究する。
AI送信チェーンを通じてコンテンツを追跡する5つの研究で、3つの一貫したパターンが見つかった。
我々は、AIによるコンテンツを権威的に見せる特性は、情報的判断が依存する認知的・感情的な多様性を体系的に損なう可能性があることを示す。
- 参考スコア(独自算出の注目度): 7.593123083236325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When AI systems summarize and relay information, they inevitably transform it. But how? We introduce an experimental paradigm based on the telephone game to study what happens when AI talks to AI. Across five studies tracking content through AI transmission chains, we find three consistent patterns. The first is convergence, where texts differing in certainty, emotional intensity, and perspectival balance collapse toward a shared default of moderate confidence, muted affect, and analytical structure. The second is selective survival, where narrative anchors persist while the texture of evidence, hedges, quotes, and attributions is stripped away. The third is competitive filtering, where strong arguments survive while weaker but valid considerations disappear when multiple viewpoints coexist. In downstream experiments, human participants rated AI-transmitted content as more credible and polished. Importantly, however, humans also showed degraded factual recall, reduced perception of balance, and diminished emotional resonance. We show that the properties that make AI-mediated content appear authoritative may systematically erode the cognitive and affective diversity on which informed judgment depends.
- Abstract(参考訳): AIシステムが情報を要約し、中継すると、必然的にそれを変換する。
でもどうやって?
我々は,AIがAIと対話する際に何が起こるかを研究するために,電話ゲームに基づく実験パラダイムを導入する。
AI送信チェーンを通じてコンテンツを追跡する5つの研究で、3つの一貫したパターンが見つかった。
ひとつはコンバージェンス(コンバージェンス)であり、そこでは、確実性、感情的強度、および知覚的バランスが、適度な信頼、ミュートされた影響、分析的構造で共有されたデフォルトに向かって崩壊する。
2つ目は選択的な生存であり、証拠、ヘッジ、引用、帰属のテクスチャが取り除かれる間、物語のアンカーは持続する。
3つ目は競合フィルタリング(英語版)であり、強い議論はより弱いが有効な考慮は複数の視点が共存するときに消える。
下流の実験では、人間の参加者はAIが送信したコンテンツをより信頼性があり、洗練されていると評価した。
しかし、重要なことに、人間は事実的リコールの低下、バランスの認識の低下、感情共鳴の低下も示していた。
我々は、AIによるコンテンツを権威的に見せる特性は、情報的判断が依存する認知的・感情的な多様性を体系的に損なう可能性があることを示す。
関連論文リスト
- Future You: Designing and Evaluating Multimodal AI-generated Digital Twins for Strengthening Future Self-Continuity [25.629127439391166]
我々は,AIが生成する未来の3つの形態(テキスト,音声,アバター)を中立的な制御条件に対してランダムに制御した研究を報告する。
パーソナライズされたすべてのモダリティは、将来の自己持続性(FSC)、感情的幸福感、モチベーションをコントロールと比較して強化し、アバターは最大のバイビデンスゲインを生み出した。
相互作用品質指標(特に説得力、リアリズム、ユーザエンゲージメント)は、心理的および感情的な結果の堅牢な予測因子として出現した。
論文 参考訳(メタデータ) (2025-12-05T19:24:18Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Beyond Hallucinations: The Illusion of Understanding in Large Language Models [0.0]
大規模言語モデル(LLM)は、人間のコミュニケーションや意思決定に深く浸透している。
彼らはあいまいさ、偏見、言語自体に固有の真理への直接アクセスの欠如を継承する。
本稿は,LLMがシステム1認知を大規模に運用する,高速,連想的,説得的だが,反射やファルシフィケーションは行わない,と論じる。
論文 参考訳(メタデータ) (2025-10-16T13:19:44Z) - Making AI Inevitable: Historical Perspective and the Problems of Predicting Long-Term Technological Change [0.0]
人工知能が人間の社会に変革をもたらすかどうかについて、深い意見の相違に焦点が当てられている。
この研究は、この議論において2つの基本的なキャンプを区別することから始まる。
これは、転換論者または懐疑的な立場を正当化するために使われる幅広い異なる議論を示す。
論文 参考訳(メタデータ) (2025-08-21T21:18:37Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - OceanChat: The Effect of Virtual Conversational AI Agents on Sustainable Attitude and Behavior Change [70.24245082578167]
本論文では,大規模言語モデルを活用した対話型システムであるOceanChatについて述べる。
人類同型と種認証のバランスをとることで、OceanChatは、インタラクティブな物語が環境知識と現実世界の行動変化のギャップを埋める方法を示している。
論文 参考訳(メタデータ) (2025-02-05T03:45:33Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Theoretical Modeling of Communication Dynamics [0.0]
評論ゲームは、参加するエージェントの信頼性、他者が認識する誠実さに焦点を当てている。
シコファント、自我中心性、病理的嘘、送信者に対する攻撃性など、様々な送信者および受信者戦略が研究されている。
ミニマリストの悪意ある戦略は、操作的、支配的、破壊的であり、他人のコストに対する評判を著しく高める。
論文 参考訳(メタデータ) (2021-06-09T22:02:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。