論文の概要: Credibility Governance: A Social Mechanism for Collective Self-Correction under Weak Truth Signals
- arxiv url: http://arxiv.org/abs/2603.02640v1
- Date: Tue, 03 Mar 2026 06:10:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.665732
- Title: Credibility Governance: A Social Mechanism for Collective Self-Correction under Weak Truth Signals
- Title(参考訳): 信頼性管理 : 弱信号下での集合的自己補正の社会的メカニズム
- Authors: Wanying He, Yanxi Lin, Ziheng Zhou, Xue Feng, Min Peng, Qianqian Xie, Zilong Zheng, Yipeng Kang,
- Abstract要約: 信頼性ガバナンス(CG)は、エージェントと視点が進化する公的な証拠を継続的に追跡する学習によって影響を再配置するメカニズムである。
CGは、エージェントと意見の両方の動的信頼性スコアを維持し、信頼度重み付き支持を通じて意見の影響を更新し、支持する意見の長期的パフォーマンスに基づいてエージェントの信頼性を更新する。
- 参考スコア(独自算出の注目度): 33.05880104821315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online platforms increasingly rely on opinion aggregation to allocate real-world attention and resources, yet common signals such as engagement votes or capital-weighted commitments are easy to amplify and often track visibility rather than reliability. This makes collective judgments brittle under weak truth signals, noisy or delayed feedback, early popularity surges, and strategic manipulation. We propose Credibility Governance (CG), a mechanism that reallocates influence by learning which agents and viewpoints consistently track evolving public evidence. CG maintains dynamic credibility scores for both agents and opinions, updates opinion influence via credibility-weighted endorsements, and updates agent credibility based on the long-run performance of the opinions they support, rewarding early and persistent alignment with emerging evidence while filtering short-lived noise. We evaluate CG in POLIS, a socio-physical simulation environment that models coupled belief dynamics and downstream feedback under uncertainty. Across settings with initial majority misalignment, observation noise and contamination, and misinformation shocks, CG outperforms vote-based, stake-weighted, and no-governance baselines, yielding faster recovery to the true state, reduced lock-in and path dependence, and improved robustness under adversarial pressure. Our implementation and experimental scripts are publicly available at https://github.com/Wanying-He/Credibility_Governance.
- Abstract(参考訳): オンラインプラットフォームは、現実の注目とリソースを割り当てるために意見集約に依存していることが多いが、エンゲージメント投票や資本重み付けのコミットメントといった一般的なシグナルは、容易に増幅でき、信頼性よりも可視性を追跡することが多い。
これにより、弱い真理信号、ノイズや遅延したフィードバック、早期の人気上昇、戦略的操作の下での集団判断が不安定になる。
エージェントと視点が進化する公的な証拠を継続的に追跡する学習によって影響を再配置するメカニズムであるCredibility Governance(CG)を提案する。
CGは、エージェントと意見の両方に対する動的信頼性スコアを維持し、信頼度重み付けされた支持を通じて意見の影響を更新し、彼らが支持する意見の長期的パフォーマンスに基づいてエージェントの信頼性を更新し、短命なノイズをフィルタリングしながら、出現する証拠と早期かつ永続的な一致を報いる。
我々は,不確実性の下での信念力学と下流フィードバックをモデル化した社会物理シミュレーション環境POLISにおけるCGを評価した。
初期の多数決、観測ノイズ、汚染、誤情報ショックによる設定では、CGは投票ベース、利害重み付け、非統治ベースラインを上回り、真の状態への迅速な回復、ロックインとパス依存の低減、敵の圧力下での堅牢性の向上を実現している。
私たちの実装と実験用スクリプトはhttps://github.com/Wanying-He/Credibility_Governance.comで公開されています。
関連論文リスト
- On Robustness and Chain-of-Thought Consistency of RL-Finetuned VLMs [15.301640007799735]
単純な、制御されたテキストの摂動(キャプションや不正確なチェーン・オブ・シント(CoT)のトレース)は、堅牢性と信頼性が著しく低下していることを示している。
これらの脆弱性をよりよく理解するために、我々はRL微調整力学を分析し、精度と信頼のトレードオフを明らかにする。
論文 参考訳(メタデータ) (2026-02-13T01:12:00Z) - Preventing the Collapse of Peer Review Requires Verification-First AI [49.995126139461085]
我々は、真理結合、すなわち、過度に科学的真理をトラックする場所のスコアの厳密さを提案する。
プロキシ・ソブリン評価に向けた相転移を駆動する2つの力の形式化を行う。
論文 参考訳(メタデータ) (2026-01-23T17:17:32Z) - Gaming the Judge: Unfaithful Chain-of-Thought Can Undermine Agent Evaluation [76.5533899503582]
大規模言語モデル(LLM)は、エージェントのパフォーマンスを評価するために、ますます裁判官として使われている。
このパラダイムは、エージェントのチェーン・オブ・シークレット(CoT)推論が内部の推論と環境状態の両方を忠実に反映していることを暗黙的に仮定している。
我々は、操作された推論だけで、様々なWebタスクにまたがる800の軌跡に対して、最先端のVLM審査員の偽陽性率を最大90%向上させることができることを実証した。
論文 参考訳(メタデータ) (2026-01-21T06:07:43Z) - CoG: Controllable Graph Reasoning via Relational Blueprints and Failure-Aware Refinement over Knowledge Graphs [53.199517625701475]
CoGはDual-Process Theoryにインスパイアされたトレーニング不要のフレームワークで、直観と熟考の相互作用を模倣している。
CoGは精度と効率の両方において最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-16T07:27:40Z) - Illusions of Confidence? Diagnosing LLM Truthfulness via Neighborhood Consistency [78.91846841708586]
完全な自己整合性で答えられた事実でさえ、軽微な文脈干渉の下で急速に崩壊することを示します。
本研究では,概念的近傍における応答コヒーレンスを評価する信念の構造尺度であるNighbor-Consistency Belief(NCB)を提案する。
また、文脈不変の信念構造を最適化し、長い知識の脆さを約30%低減する構造意識訓練(SAT)を提案する。
論文 参考訳(メタデータ) (2026-01-09T16:23:21Z) - Community Notes are Vulnerable to Rater Bias and Manipulation [75.34858521118305]
本研究では,現実的なレーダやノートの振る舞いをモデル化したシミュレーションデータを用いて,コミュニティノートアルゴリズムの評価を行う。
このアルゴリズムは、真に有用な音符のかなりの部分を抑制することができ、レーダバイアスに非常に敏感である。
論文 参考訳(メタデータ) (2025-11-04T14:39:34Z) - AI Credibility Signals Outrank Institutions and Engagement in Shaping News Perception on Social Media [4.197003225775791]
本稿では,AIが生み出す信頼性スコアがユーザの政治的ニュースに対する認識にどのように影響するかを,大規模に混合設計実験により検証する。
その結果、AIフィードバックは党派偏見や制度的不信を著しく抑制し、好きや共有といった従来のエンゲージメントシグナルをはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-11-04T08:46:54Z) - Zero-shot reasoning for simulating scholarly peer-review [0.0]
本稿では、AI生成ピアレビューレポートを評価するための、最初の安定的でエビデンスに基づく標準を提供する決定論的シミュレーションフレームワークについて検討する。
第一に、このシステムは校正された編集判断をシミュレートすることができ、「改訂」決定が一貫して多数決結果を形成する。
第二に、手続きの整合性を揺るぎないまま維持し、安定した29%の証明の遵守率を強制する。
論文 参考訳(メタデータ) (2025-10-02T13:59:14Z) - Stochastically Dominant Peer Prediction [11.183872292320824]
我々は、真理報告の強い保証として、支配的支配的(SD-truthfulness)を提案する。
単純な解 -- バイナリロータリーに丸めること -- は、SDトラスフルネスを強制するが、しばしば感度を低下させる。
ラウンドリングのより慎重な適用が、感度をよりよく維持できることを示す。
論文 参考訳(メタデータ) (2025-06-02T21:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。