論文の概要: How to Disclose? Strategic AI Disclosure in Crowdfunding
- arxiv url: http://arxiv.org/abs/2602.15698v1
- Date: Tue, 17 Feb 2026 16:26:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.122324
- Title: How to Disclose? Strategic AI Disclosure in Crowdfunding
- Title(参考訳): クラウドファンドにおける戦略的AI情報開示の方法
- Authors: Ning Wang, Chen Liang,
- Abstract要約: 強制的なAI開示は、クラウドファンディングのパフォーマンスを著しく低下させる。
資金は39.8%減少し、支援者は23.9%減少している。
この悪影響は開示戦略によって体系的に抑制される。
- 参考スコア(独自算出の注目度): 10.090562206470329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence (AI) increasingly integrates into crowdfunding practices, strategic disclosure of AI involvement has become critical. Yet, empirical insights into how different disclosure strategies influence investor decisions remain limited. Drawing on signaling theory and Aristotle's rhetorical framework, we examine how mandatory AI disclosure affects crowdfunding performance and how substantive signals (degree of AI involvement) and rhetorical signals (logos/explicitness, ethos/authenticity, pathos/emotional tone) moderate these effects. Leveraging Kickstarter's mandatory AI disclosure policy as a natural experiment and four supplementary online experiments, we find that mandatory AI disclosure significantly reduces crowdfunding performance: funds raised decline by 39.8% and backer counts by 23.9% for AI-involved projects. However, this adverse effect is systematically moderated by disclosure strategy. Greater AI involvement amplifies the negative effects of AI disclosure, while high authenticity and high explicitness mitigate them. Interestingly, excessive positive emotional tone (a strategy creators might intuitively adopt to counteract AI skepticism) backfires and exacerbates negative outcomes. Supplementary randomized experiments identify two underlying mechanisms: perceived creator competence and AI washing concerns. Substantive signals primarily affect competence judgments, whereas rhetorical signals operate through varied pathways: either mediator alone or both in sequence. These findings provide theoretical and practical insights for entrepreneurs, platforms, and policymakers strategically managing AI transparency in high-stakes investment contexts.
- Abstract(参考訳): 人工知能(AI)がクラウドファンディングの実践にますます統合されるにつれて、AIの関与に関する戦略的開示が重要になっている。
しかし、異なる開示戦略が投資家の判断にどう影響するかに関する実証的な洞察は依然として限られている。
信号理論とアリストテレスの修辞的枠組みに基づいて、強制的なAI開示がクラウドファンディングのパフォーマンスにどのように影響するか、また、現実的な信号(AIの関与度)と修辞的信号(ログ/明示性、倫理/オーセンティシティ、パス/感情的トーン)がこれらの効果をどのように抑制するかを検討する。
Kickstarterの必須AI開示ポリシーを自然実験と4つの追加オンライン実験として活用することにより、必須AI開示がクラウドファンディングのパフォーマンスを大幅に低下させることが判明した。
しかし、この悪影響は開示戦略によって体系的に抑制される。
より大きなAI関与は、AI開示のネガティブな影響を増幅し、高い信頼性と高い明示性はそれらを緩和する。
興味深いことに、過剰なポジティブな感情のトーン(AI懐疑主義に対抗するために直感的に戦略作成者が採用するかもしれない)がバックファイアを起こし、ネガティブな結果を悪化させる。
追加のランダム化実験では、認識された創造的能力とAI洗浄に関する2つのメカニズムが特定される。
実体的信号は、主に能力判断に影響を及ぼすが、修辞的信号は、仲介者単独か、またはその両方で、様々な経路で機能する。
これらの発見は、高い投資状況下でAI透明性を戦略的に管理する起業家、プラットフォーム、政策立案者に理論的および実践的な洞察を与える。
関連論文リスト
- When Is Self-Disclosure Optimal? Incentives and Governance of AI-Generated Content [25.691139058468377]
Gen-AIは、生産コストを削減し、さまざまな品質のスケーラブルなアウトプットを可能にすることで、デジタルプラットフォーム上でのコンテンツ生成を再構築している。
プラットフォームは、クリエイターがAI生成コンテンツをラベル付けする必要がある公開ポリシーを採用し始めている。
本稿では、こうした開示体制の経済的意味を研究するための形式モデルを開発する。
論文 参考訳(メタデータ) (2026-01-26T16:31:04Z) - AI Credibility Signals Outrank Institutions and Engagement in Shaping News Perception on Social Media [4.197003225775791]
本稿では,AIが生み出す信頼性スコアがユーザの政治的ニュースに対する認識にどのように影響するかを,大規模に混合設計実験により検証する。
その結果、AIフィードバックは党派偏見や制度的不信を著しく抑制し、好きや共有といった従来のエンゲージメントシグナルをはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-11-04T08:46:54Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、効率の改善にもかかわらず、その計算要求はモデルの性能よりも速く増加するため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - The Impact of Generative Artificial Intelligence on Market Equilibrium: Evidence from a Natural Experiment [19.963531237647103]
生成人工知能(AI)は、人間の出力に似た創造的なコンテンツをより効率よく、コストを削減できる能力を示す。
本稿では,中国の主要なアートアウトソーシングプラットフォームにおいて,生成AIが市場均衡に与える影響を実証的に検討する。
我々の分析によると、生成AIの出現は平均価格を64%引き下げる結果となったが、同時に注文量が121%増加し、全体の売上が56%増加した。
論文 参考訳(メタデータ) (2023-11-13T04:31:53Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。