論文の概要: Zero-Knowledge Proofs for Questionnaire Result Verification in Smart Contracts
- arxiv url: http://arxiv.org/abs/2310.13618v1
- Date: Fri, 20 Oct 2023 16:10:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 01:44:24.148732
- Title: Zero-Knowledge Proofs for Questionnaire Result Verification in Smart Contracts
- Title(参考訳): スマートコントラクトにおける問合せ結果検証のためのゼロ知識証明
- Authors: Carlos Efrain Quintero-Narvaez, Raul Monroy-Borja,
- Abstract要約: 本稿では、Groth16 Zero-Knowledge Proofスキーマを利用して、スマートコントラクトにおけるアンケート結果の有効性を検証するWeb3プラットフォームの実装を提案する。
提案手法は, アンケートの回答キーが検証プロセスを通じて開示されていないことを保証している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present an implementation of a Web3 platform that leverages the Groth16 Zero-Knowledge Proof schema to verify the validity of questionnaire results within Smart Contracts. Our approach ensures that the answer key of the questionnaire remains undisclosed throughout the verification process, while ensuring that the evaluation is done fairly. To accomplish this, users respond to a series of questions, and their answers are encoded and securely transmitted to a hidden backend. The backend then performs an evaluation of the user's answers, generating the overall result of the questionnaire. Additionally, it generates a Zero-Knowledge Proof, attesting that the answers were appropriately evaluated against a valid set of constraints. Next, the user submits their result along with the proof to a Smart Contract, which verifies their validity and issues a non-fungible token (NFT) as an attestation of the user's test result. In this research, we implemented the Zero-Knowledge functionality using Circom 2 and deployed the Smart Contract using Solidity, thereby showcasing a practical and secure solution for questionnaire validity verification in the context of Smart Contracts.
- Abstract(参考訳): 本稿では、Groth16 Zero-Knowledge Proofスキーマを利用して、スマートコントラクトにおけるアンケート結果の有効性を検証するWeb3プラットフォームの実装を提案する。
提案手法は,質問票の解答鍵が検証過程を通じて未公表でありながら,評価が公平に行われていることを保証している。
これを実現するため、ユーザは一連の質問に回答し、その回答はエンコードされ、隠れたバックエンドに安全に送信される。
バックエンドは、ユーザの回答を評価し、アンケートの全体結果を生成する。
さらに、ゼロ知識証明(Zero-Knowledge Proof)を生成し、その答えが妥当な制約セットに対して適切に評価されたことを示す。
次に、ユーザは、その証明とともに結果をスマートコントラクトに送信し、その妥当性を検証するとともに、ユーザのテスト結果の証明として、NFT(Non-fungible token)を発行する。
本研究では,Circom 2を用いたZero-Knowledge機能を実装し,Solidityを用いたスマートコントラクトをデプロイした。
関連論文リスト
- Vulnerabilities of smart contracts and mitigation schemes: A Comprehensive Survey [0.6554326244334866]
本稿では,開発者がセキュアなスマート技術を開発するのを支援することを目的とした,文献レビューと実験報告を組み合わせる。
頻繁な脆弱性とそれに対応する緩和ソリューションのリストを提供する。
サンプルのスマートコントラクト上でそれらを実行し、テストすることで、コミュニティが最も広く使用しているツールを評価します。
論文 参考訳(メタデータ) (2024-03-28T19:36:53Z) - Are We There Yet? Unraveling the State-of-the-Art Smart Contract Fuzzers [35.47750672646162]
本稿では,契約ファジィ化研究の現状を概観する。
次に,最先端の契約ファジィアのユーザビリティを評価するために,詳細な実験を行った。
論文 参考訳(メタデータ) (2024-02-05T12:54:28Z) - RELIC: Investigating Large Language Model Responses using Self-Consistency [58.63436505595177]
LLM(Large Language Models)は、フィクションと事実を混同し、幻覚として知られる非事実コンテンツを生成することで有名である。
本稿では,ユーザが生成したテキストの信頼性を把握できる対話型システムを提案する。
論文 参考訳(メタデータ) (2023-11-28T14:55:52Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - A Search for Prompts: Generating Structured Answers from Contracts [40.99057706243682]
我々は、契約条項に関する質問に対して、1つ(またはそれ以上)の固定された回答を返そうとする法的質問応答の一形態を示す。
我々は,OpenAIのtextitGPT-3.5-Turbo を用いた法的質問応答プロンプトの探索手法について議論し,洞察の要約を提供する。
論文 参考訳(メタデータ) (2023-10-16T07:29:38Z) - Formally Verifying a Real World Smart Contract [52.30656867727018]
われわれは、Solidityの最新バージョンで書かれた現実世界のスマートコントラクトを正式に検証できるツールを検索する。
本稿では,最近のSolidityで書かれた実世界のスマートコントラクトを正式に検証できるツールについて紹介する。
論文 参考訳(メタデータ) (2023-07-05T14:30:21Z) - Mastering the ABCDs of Complex Questions: Answer-Based Claim
Decomposition for Fine-grained Self-Evaluation [9.776667356119352]
本稿では,質問を真偽のクレームに分解する手法であるABCDを提案する。
ABCDクレームを分解し, きめ細かい自己評価を行う。
GPT-3.5は、その答えがどの程度入力された質問の基準を満たすかを決定する能力を持っていることがわかった。
論文 参考訳(メタデータ) (2023-05-24T05:53:11Z) - Logically Consistent Loss for Visual Question Answering [66.83963844316561]
ニューラルネットワークに基づく視覚質問応答(VQA)の現在の進歩は、同じ分布(すなわち、d)の仮定による一貫性を保証することができない。
マルチタスク学習フレームワークにおける論理的一貫した損失を定式化することにより,この問題に対処するための新しいモデルに依存しない論理制約を提案する。
実験により、提案された損失公式とハイブリッドバッチの導入により、一貫性が向上し、性能が向上することを確認した。
論文 参考訳(メタデータ) (2020-11-19T20:31:05Z) - Global Optimization of Objective Functions Represented by ReLU Networks [77.55969359556032]
ニューラルネットワークは複雑で非敵対的な関数を学ぶことができ、安全クリティカルな文脈でそれらの正しい振る舞いを保証することは困難である。
ネットワーク内の障害を見つけるための多くのアプローチ(例えば、敵の例)があるが、これらは障害の欠如を保証できない。
本稿では,最適化プロセスを検証手順に統合し,本手法よりも優れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T08:19:48Z) - Asking and Answering Questions to Evaluate the Factual Consistency of
Summaries [80.65186293015135]
本稿では,QAGS (kags) と呼ばれる自動評価プロトコルを提案する。
QAGSは、要約とそのソースについて質問すると、要約が実際にソースと一致している場合、同様の回答が得られます。
QAGSは、使いやすく、現実的に一貫性のあるテキストを自動的に生成するための有望なツールであると考えています。
論文 参考訳(メタデータ) (2020-04-08T20:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。