論文の概要: Trust via Reputation of Conviction
- arxiv url: http://arxiv.org/abs/2603.08575v1
- Date: Mon, 09 Mar 2026 16:30:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.485055
- Title: Trust via Reputation of Conviction
- Title(参考訳): 有罪の申立てによる信託
- Authors: Aravind R. Iyengar,
- Abstract要約: Emphknowledge、Emphtruth、Emphtrustの問題は、クレームとソースの数学的定式化を通じて検討される。
我々は、真理を再現的に認識される知識のサブセットとして定義し、情報源を生成的役割と識別的役割の両方を持つものとして定式化する。
我々は、ソースのスタンスが独立したコンセンサスによって左右される可能性という、Emphconvictionに根ざした評価のためのフレームワークを開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The question of \emph{knowledge}, \emph{truth} and \emph{trust} is explored via a mathematical formulation of claims and sources. We define truth as the reproducibly perceived subset of knowledge, formalize sources as having both generative and discriminative roles, and develop a framework for reputation grounded in the \emph{conviction} -- the likelihood that a source's stance is vindicated by independent consensus. We argue that conviction, rather than correctness or faithfulness, is the principled basis for trust: it is regime-independent, rewards genuine contribution, and demands the transparent and self-sufficient perceptions that make external verification possible. We formalize reputation as the expected weighted signed conviction over a realm of claims, characterize its behavior across source-claim regimes, and identify continuous verification as both a theoretical necessity and a practical mechanism through which reputation accrues. The framework is applied to AI agents, which are identified as capable but error-prone sources for whom verifiable conviction and continuously accrued reputation constitute the only robust foundation for trust.
- Abstract(参考訳): クレームとソースの数学的定式化を通じて、 \emph{knowledge}, \emph{truth} および \emph{trust} の問題は探索される。
我々は、真理を、再現的に認識される知識のサブセットとして定義し、ソースを生成的かつ差別的な役割の両方を持つものとして定式化し、ソースのスタンスが独立したコンセンサスによって活性化される可能性が「emph{conviction}」に根ざした評価のための枠組みを開発する。
我々は、信念は、正確さや忠実さよりもむしろ、信頼の原則に基づく基礎であると論じている。
我々は,クレームの領域において期待される重み付けされた署名された信念としての評価を定式化し,その行動の特徴を定式化し,その評価が生じる理論的必要かつ実践的なメカニズムとして連続的な検証を識別する。
このフレームワークはAIエージェントに適用され、検証可能な信念と継続的な評価が信頼の唯一の堅牢な基盤となっている、有能だがエラーを起こしやすいソースとして特定される。
関連論文リスト
- The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge [0.0]
我々は、二重プロセス理論を背景として、人間集団に分散した合理性理論を開発する。
我々は、命題が真である理由の反射的理解として定義される内部主義者の正当性と、真理の信頼できる伝達として定義される外部主義者の正当性とを区別する。
LLMは、他所で正当な根拠が確立されている情報を確実に伝達できるため、外部主義的信頼性を近似するが、それ自身は反射的正当性を持っていない。
論文 参考訳(メタデータ) (2025-12-22T16:52:37Z) - Learning with Confidence [0.0]
我々は、信条の学習や更新に生じる信頼の概念を特徴づける。
連続体に対する信頼を測定するための2つの標準的な方法を与える。
私たちは常に自信がこのように表現できることを証明します。
論文 参考訳(メタデータ) (2025-08-14T19:45:40Z) - All You Need for Counterfactual Explainability Is Principled and Reliable Estimate of Aleatoric and Epistemic Uncertainty [27.344785490275864]
我々は透明性研究が人工知能の基本的な概念の多くを見落としていると主張している。
本質的に透明なモデルは、人間中心の説明的洞察の恩恵を受けることができる。
高度なレベルでは、人工知能の基礎を透明性研究に統合することは、より信頼性が高く、堅牢で、理解可能な予測モデルを生み出すことを約束する。
論文 参考訳(メタデータ) (2025-02-24T09:38:31Z) - Correctness is not Faithfulness in RAG Attributions [47.48625339105129]
ソースドキュメントを明示的に引用することで、ユーザは生成されたレスポンスを検証し、信頼を高めることができる。
先行研究は引用正当性(引用された文書が対応する文をサポートするかどうか)を概ね評価している。
評価された回答に対する信頼を確立するためには、引用の正しさと引用の忠実さの両方を検討する必要がある。
論文 参考訳(メタデータ) (2024-12-23T21:57:11Z) - When to Trust LLMs: Aligning Confidence with Response Quality [49.371218210305656]
我々はconfidence-Quality-ORDer保存アライメントアプローチ(CONQORD)を提案する。
品質報酬と秩序保存アライメント報酬機能を統合する。
実験により,CONQORDは信頼性と応答精度のアライメント性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-04-26T09:42:46Z) - Read it Twice: Towards Faithfully Interpretable Fact Verification by
Revisiting Evidence [59.81749318292707]
本稿では,証拠の検索とクレームの検証を行うためにReReadという名前の事実検証モデルを提案する。
提案システムは,異なる設定下での最良のレポートモデルに対して,大幅な改善を実現することができる。
論文 参考訳(メタデータ) (2023-05-02T03:23:14Z) - The Many Facets of Trust in AI: Formalizing the Relation Between Trust
and Fairness, Accountability, and Transparency [4.003809001962519]
公正性、説明責任、透明性を促進する努力は、AI(Trust in AI, TAI)の育成に不可欠であると考えられている。
信頼そのものへの説明の欠如は、信頼は一般的に理解され、複雑でなく、あるいは興味のないものであることを示唆している。
我々のTAI出版物の分析では、信頼(エージェント)、信頼(エージェント)、何(オブジェクト)、何(ベース)、何(客観的)、何(オブジェクト)、なぜ(インパクト)など、さまざまな方向性が明らかにされている。
論文 参考訳(メタデータ) (2022-08-01T08:26:57Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。