論文の概要: A New Incentive Model For Content Trust
- arxiv url: http://arxiv.org/abs/2507.09972v1
- Date: Mon, 14 Jul 2025 06:41:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:24.451886
- Title: A New Incentive Model For Content Trust
- Title(参考訳): コンテンツ信頼のための新しいインセンティブモデル
- Authors: Lucas Barbosa, Sam Kirshner, Rob Kopel, Eric Tze Kuan Lim, Tom Pagram,
- Abstract要約: 本稿では,大規模デジタルコンテンツの妥当性を検証するためのインセンティブ駆動型分散型アプローチについて概説する。
コミュニティベースのガバナンスモデルを通じて、誤った情報と戦うための自己推進的なパラダイムシフトを育むことが可能である、と私たちは信じています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper outlines an incentive-driven and decentralized approach to verifying the veracity of digital content at scale. Widespread misinformation, an explosion in AI-generated content and reduced reliance on traditional news sources demands a new approach for content authenticity and truth-seeking that is fit for a modern, digital world. By using smart contracts and digital identity to incorporate 'trust' into the reward function for published content, not just engagement, we believe that it could be possible to foster a self-propelling paradigm shift to combat misinformation through a community-based governance model. The approach described in this paper requires that content creators stake financial collateral on factual claims for an impartial jury to vet with a financial reward for contribution. We hypothesize that with the right financial and social incentive model users will be motivated to participate in crowdsourced fact-checking and content creators will place more care in their attestations. This is an exploratory paper and there are a number of open issues and questions that warrant further analysis and exploration.
- Abstract(参考訳): 本稿では,大規模デジタルコンテンツの妥当性を検証するためのインセンティブ駆動型分散型アプローチについて概説する。
広汎な誤報、AI生成コンテンツの爆発、従来のニュースソースへの依存度低下など、現代のデジタル世界に適した、コンテンツの信頼性と真理を探究のための新しいアプローチが求められている。
スマートコントラクトとデジタルIDを使用して、単にエンゲージメントだけでなく、公開コンテンツに対する報酬関数に"トラスト"を組み込むことで、コミュニティベースのガバナンスモデルを通じて誤った情報と戦うための自己推進パラダイムシフトを促進することができる、と私たちは考えています。
本論文では, コンテンツ制作者は, コントリビューションに対する金銭的報酬を審査する公平な陪審員に対して, 事実的主張に金銭的責任を負うよう要求する。
適切な金融インセンティブモデルとソーシャルインセンティブモデルによって、ユーザーはクラウドソースのファクトチェックに参加する動機があり、コンテンツクリエーターは証明にもっと注意を払うだろう、という仮説を立てる。
これは探索的な論文であり、さらなる分析と探索を保証してくれるオープンな問題や疑問がいくつかある。
関連論文リスト
- A Decentralized Framework for Ethical Authorship Validation in Academic Publishing: Leveraging Self-Sovereign Identity and Blockchain Technology [0.0]
未合意の著作者、贈与の著作者、著者の不明瞭さ、興味の対立が学術出版を脅かしている。
本稿では,SSI(Self-Sovereign Identity)とブロックチェーン技術を活用した分散フレームワークを提案する。
ブロックチェーンベースのトラストレジストリは、オーサシップの同意とピアレビューアクティビティを不変に記録する。
この研究は、より透明性があり、説明責任があり、信頼できる学術出版エコシステムへの一歩である。
論文 参考訳(メタデータ) (2025-08-03T20:26:19Z) - Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - A Comprehensive Content Verification System for ensuring Digital Integrity in the Age of Deep Fakes [0.0]
本稿では,デジタルランドスケープ全体にわたる投稿やストーリーとして共有される画像やビデオの認証を目的とした,コンテンツ検証システムについて論じる。
このシステムによって、個人やインフルエンサーはデジタルフットプリントの正当性を検証することができ、相互接続された世界での評判を守ることができる。
論文 参考訳(メタデータ) (2024-11-29T14:47:47Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Staying vigilant in the Age of AI: From content generation to content authentication [2.7602296534922135]
Yangtze Seaプロジェクトは、生成AI(GAI)が生成した偽のコンテントとの戦いのイニシアチブである。
その取り組みの一環として、メガネとクリップオンの形状の推測的事実チェックウェアラブルの開発を提案する。
論文 参考訳(メタデータ) (2024-07-01T03:01:11Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Authenticity in Authorship: The Writer's Integrity Framework for Verifying Human-Generated Text [0.0]
著者の一体性(Writer's Integrity)"フレームワークは、製品ではなく、執筆プロセスを監視し、人間の著作者の行動的な足跡を捉えます。
我々は,人間の知的作業の検証に革命をもたらす可能性を強調し,学術的完全性と知的財産権の維持におけるその役割を強調した。
本稿では、IT企業が効果的にフレームワークをマネタイズするためのビジネスモデルを概説する。
論文 参考訳(メタデータ) (2024-04-05T23:00:34Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - FR-Detect: A Multi-Modal Framework for Early Fake News Detection on
Social Media Using Publishers Features [0.0]
ニュース分野におけるこれらのメディアの優位性にもかかわらず、制御と検証機構の欠如がフェイクニュースの普及につながっている。
早期検出機能を備えたユーザ関連・コンテンツ関連機能を用いた高精度なマルチモーダルフレームワークFR-Detectを提案する。
実験によると、パブリッシャーの機能はコンテンツベースのモデルの性能を最大13%改善し、精度とF1スコアを29%向上させることができる。
論文 参考訳(メタデータ) (2021-09-10T12:39:00Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Incentives for Federated Learning: a Hypothesis Elicitation Approach [10.452709936265274]
フェデレーション学習は、分散データソースから機械学習モデルを集めるための有望なパラダイムを提供する。
信頼性のあるフェデレート学習システムの成功は、分散された自己関心のあるユーザーが積極的に参加するという前提に基づいている。
本稿では,ローカルなユーザ側機械学習モデルの真理レポートをインセンティブ化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-21T04:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。