論文の概要: NDAI Agreements
- arxiv url: http://arxiv.org/abs/2502.07924v1
- Date: Tue, 11 Feb 2025 19:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:45:38.441615
- Title: NDAI Agreements
- Title(参考訳): NDAI協定
- Authors: Matthew Stephenson, Andrew Miller, Xyn Sun, Bhargav Annem, Rohan Parikh,
- Abstract要約: 発明者は、報酬や資金を確保するための新しいアイデアの詳細を明らかにする必要がある。
本稿では、売り手(発明者)と買い手(投資者)が、持ち上げの脅威の下で良い情報を取引するモデルを提案する。
我々は、信頼できる実行環境(TEE)とAIエージェントを組み合わせることで、このホールドアップ問題を緩和し、完全に排除できることを示した。
- 参考スコア(独自算出の注目度): 2.129361704927982
- License:
- Abstract: We study a fundamental challenge in the economics of innovation: an inventor must reveal details of a new idea to secure compensation or funding, yet such disclosure risks expropriation. We present a model in which a seller (inventor) and buyer (investor) bargain over an information good under the threat of hold-up. In the classical setting, the seller withholds disclosure to avoid misappropriation, leading to inefficiency. We show that trusted execution environments (TEEs) combined with AI agents can mitigate and even fully eliminate this hold-up problem. By delegating the disclosure and payment decisions to tamper-proof programs, the seller can safely reveal the invention without risking expropriation, achieving full disclosure and an efficient ex post transfer. Moreover, even if the invention's value exceeds a threshold that TEEs can fully secure, partial disclosure still improves outcomes compared to no disclosure. Recognizing that real AI agents are imperfect, we model "agent errors" in payments or disclosures and demonstrate that budget caps and acceptance thresholds suffice to preserve most of the efficiency gains. Our results imply that cryptographic or hardware-based solutions can function as an "ironclad NDA," substantially mitigating the fundamental disclosure-appropriation paradox first identified by Arrow (1962) and Nelson (1959). This has far-reaching policy implications for fostering R&D, technology transfer, and collaboration.
- Abstract(参考訳): 発明者は、報酬や資金を確保するための新しいアイデアの詳細を明らかにしなければならない。
本稿では、売り手(発明者)と買い手(投資者)が、持ち上げの脅威の下で良い情報を取引するモデルを提案する。
古典的な設定では、売り手は不正行為を避けるために開示を控え、非効率に繋がる。
我々は、信頼できる実行環境(TEE)とAIエージェントを組み合わせることで、このホールドアップ問題を緩和し、完全に排除できることを示した。
改ざん防止プログラムに開示及び支払決定を委譲することにより、販売者は、収用を危険にさらすことなく発明を安全に明らかにし、全開示を達成し、かつ効率的な公開ポスト転送を行うことができる。
さらに、発明の値がTEEが完全に確保できるしきい値を超えるとしても、部分開示は開示を伴わずに結果を改善する。
実際のAIエージェントが不完全であることを認識して、支払いや開示の"エージェントエラー"をモデル化し、予算上限と受け入れしきい値が効率の向上のほとんどを維持するのに十分であることを示す。
以上の結果から,暗号あるいはハードウェアベースのソリューションは,Arrow (1962) と Nelson (1959) によって最初に同定された基本開示・予算パラドックスを,実質的に緩和する「イロンクラッドNDA」として機能することが示唆された。
このことはR&D、技術移転、コラボレーションの促進に大きく影響する。
関連論文リスト
- Multi-Agent Imitation Learning: Value is Easy, Regret is Hard [52.31989962031179]
我々は,エージェント群を協調させようとする学習者の視点で,マルチエージェント模倣学習(MAIL)問題を研究する。
MAILの以前の作業のほとんどは、基本的には、デモのサポート内で専門家の振る舞いにマッチする問題を減らすものです。
エージェントが戦略的でないという仮定の下で、学習者と専門家の間の価値ギャップをゼロにするのに十分であるが、戦略的エージェントによる逸脱を保証するものではない。
論文 参考訳(メタデータ) (2024-06-06T16:18:20Z) - Language Models Can Reduce Asymmetry in Information Markets [100.38786498942702]
我々は、言語モデルを利用した知的エージェントが外部参加者に代わって情報を売買する、オープンソースのシミュレートされたデジタルマーケットプレースを紹介した。
このマーケットプレースを実現する中心的なメカニズムはエージェントの二重機能であり、特権情報の品質を評価する能力を持つと同時に、忘れる能力も備えている。
適切に行動するためには、エージェントは合理的な判断をし、生成されたサブクエリを通じて市場を戦略的に探索し、購入した情報から回答を合成する必要がある。
論文 参考訳(メタデータ) (2024-03-21T14:48:37Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Transparency and Privacy: The Role of Explainable AI and Federated
Learning in Financial Fraud Detection [0.9831489366502302]
本研究は,これらの課題に対処するために,FL(Federated Learning)とXAI(Explainable AI)を用いた新しいアプローチを提案する。
FLは、金融機関が顧客データを直接共有することなく、不正取引を検出するモデルを協調的に訓練することを可能にする。
XAIは、モデルによってなされた予測が人間の専門家によって理解され解釈され、システムに透明性と信頼のレイヤを追加することを保証します。
論文 参考訳(メタデータ) (2023-12-20T18:26:59Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - The Double-Edged Sword of Big Data and Information Technology for the
Disadvantaged: A Cautionary Tale from Open Banking [0.3867363075280543]
オープンバンキングは金融サービスに革命を起こし、顧客の獲得、管理、維持、リスクアセスメントの新しい機会を開いた。
新型コロナウイルスとインフレーション上昇による世界的な懸念である金融脆弱性(FV)の次元について検討する。
英国フィンテックの貸し手によるユニークなデータセットを用いて、安全な使用法を同時に警告しながら、きめ細かいトランザクションデータのパワーを実証する。
論文 参考訳(メタデータ) (2023-07-25T11:07:43Z) - Bloated Disclosures: Can ChatGPT Help Investors Process Information? [0.0]
ChatGPTのような生成AIツールは、投資家が情報を処理する方法を根本的に変えることができる。
我々は、これらのツールが、株式市場を実験室として利用した複雑な企業情報開示を要約する上での経済的有用性について検討する。
肥大化した開示は、価格効率の低下や情報非対称性の上昇など、資本市場の悪影響と関連していることを示す。
論文 参考訳(メタデータ) (2023-06-17T01:22:08Z) - Rethinking Disclosure Prevention with Pointwise Maximal Leakage [36.3895452861944]
本稿では,秘密の$X$の低エントロピー機能の価値を開示し,実用性を実現するユーティリティとプライバシの一般モデルを提案する。
我々は、大衆の意見に反して、有意義な推論によるプライバシー保証を提供することを証明している。
PMLベースのプライバシは互換性があることを示し、差分プライバシーのような既存の概念に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-14T10:47:40Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。