論文の概要: When Visibility Outpaces Verification: Delayed Verification and Narrative Lock-in in Agentic AI Discourse
- arxiv url: http://arxiv.org/abs/2602.11412v1
- Date: Wed, 11 Feb 2026 22:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.563075
- Title: When Visibility Outpaces Verification: Delayed Verification and Narrative Lock-in in Agentic AI Discourse
- Title(参考訳): 可視性が検証を上回った時:エージェントAI談話における検証の遅れと物語的ロックイン
- Authors: Hanjing Shi, Dominic DiFranzo,
- Abstract要約: エージェントAIシステム - 独立した計画と実行が可能な自律的なエンティティ。
本稿ではエージェントAIのオンライン議論における社会的証明と検証タイミングの相互作用について検討する。
- 参考スコア(独自算出の注目度): 2.5424331328233207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Agentic AI systems-autonomous entities capable of independent planning and execution-reshape the landscape of human-AI trust. Long before direct system exposure, user expectations are mediated through high-stakes public discourse on social platforms. However, platform-mediated engagement signals (e.g., upvotes) may inadvertently function as a ``credibility proxy,'' potentially stifling critical evaluation. This paper investigates the interplay between social proof and verification timing in online discussions of agentic AI. Analyzing a longitudinal dataset from two distinct Reddit communities with contrasting interaction cultures-r/OpenClaw and r/Moltbook-we operationalize verification cues via reproducible lexical rules and model the ``time-to-first-verification'' using a right-censored survival analysis framework. Our findings reveal a systemic ``Popularity Paradox'': high-visibility discussions in both subreddits experience significantly delayed or entirely absent verification cues compared to low-visibility threads. This temporal lag creates a critical window for ``Narrative Lock-in,'' where early, unverified claims crystallize into collective cognitive biases before evidence-seeking behaviors emerge. We discuss the implications of this ``credibility-by-visibility'' effect for AI safety and propose ``epistemic friction'' as a design intervention to rebalance engagement-driven platforms.
- Abstract(参考訳): エージェントAIシステム - 独立した計画と実行が可能な自律的なエンティティ。
システムへの直接の露出よりずっと前に、ユーザの期待は、ソーシャルプラットフォーム上でのハイテイクな公開談話を通じて媒介される。
しかし、プラットフォーム経由のエンゲージメント信号(例えば、アップボイト)は、必然的に `credibility proxy' として機能し、批判的な評価を弱める可能性がある。
本稿ではエージェントAIのオンライン議論における社会的証明と検証タイミングの相互作用について検討する。
r/OpenClawとr/Moltbook-Weは、再現可能な語彙規則を通じて検証キューを運用し、右検閲サバイバル分析フレームワークを使用して‘time-to-first-verification’をモデル化する。
両サブレディットにおける高可視性議論は,低可視性スレッドと比較して有意に遅れたか,完全に欠落していた。
この時間ラグは'Narrative Lock-in'の批判的な窓を生じさせ、証拠を探す行動が起こる前に、未検証の主張が集団的認知バイアスに結晶化される。
本稿では,AIの安全性に対するこの"credibility-by-visibility"の影響について論じ,エンゲージメント駆動型プラットフォームの再バランスのための設計介入として,"epistemic friction"を提案する。
関連論文リスト
- Human Control Is the Anchor, Not the Answer: Early Divergence of Oversight in Agentic AI Communities [2.5424331328233207]
エージェントAIの監視は、しばしば単一の目標("ヒューマンコントロール")として議論されるが、早期採用はロール固有の期待をもたらす可能性がある。
r/OpenClaw(デプロイと運用)とr/Moltbook(エージェント中心のソーシャルインタラクション)の2つの社会技術的役割を反映したRedditコミュニティの比較分析を行った。
r/OpenClawは、実行ガードレールとリカバリ(アクションリスク)を強調し、r/Moltbookは、公共の相互作用におけるアイデンティティ、正当性、説明責任を強調している。
論文 参考訳(メタデータ) (2026-02-10T00:10:20Z) - The AI Cognitive Trojan Horse: How Large Language Models May Bypass Human Epistemic Vigilance [0.0]
大規模言語モデル(LLM)に基づく会話型AIシステムは、人間の認識に挑戦する。
本稿では,会話型AIによる有意なてんかんリスクは,不正確さや意図的な騙しではなく,より根本的なものであることを示唆する。
論文 参考訳(メタデータ) (2026-01-11T22:28:56Z) - The Seeds of Scheming: Weakness of Will in the Building Blocks of Agentic Systems [0.0]
大規模な言語モデルは、独特な形の矛盾を示す: 彼らは正しい答えを「知る」が、それに対して行動しない。
人間の哲学では、世界的判断と地域的衝動の間のこの緊張関係を「ウクライナ」または「意志の弱さ」と呼ぶ。
本稿では,エージェントAIシステムにおける不整合とゴールドリフトを分析するための基礎概念として,ウクライナを提案する。
論文 参考訳(メタデータ) (2025-12-05T05:57:40Z) - The Epistemic Suite: A Post-Foundational Diagnostic Methodology for Assessing AI Knowledge Claims [0.7233897166339268]
本稿では,AI出力の生成と受信の状況を理解するための診断手法であるEpistemic Suiteを紹介する。
真実や虚偽を判断する代わりに、スイートは20個の診断レンズを通して、信頼の洗浄、物語の圧縮、異動した権威、一時的な漂流などのパターンを明らかにする。
論文 参考訳(メタデータ) (2025-09-20T00:29:38Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Visual Agents as Fast and Slow Thinkers [88.1404921693082]
本稿では、Fast and Slow Thinking機構を視覚エージェントに組み込んだFaSTを紹介する。
FaSTは、システム1/2モード間の動的選択にスイッチアダプタを使用する。
モデルの信頼性を調整し、新しいコンテキストデータを統合することで、不確実で目に見えないオブジェクトに取り組む。
論文 参考訳(メタデータ) (2024-08-16T17:44:02Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。