論文の概要: When and Why is Persuasion Hard? A Computational Complexity Result
- arxiv url: http://arxiv.org/abs/2408.07923v1
- Date: Thu, 15 Aug 2024 04:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:58:11.688001
- Title: When and Why is Persuasion Hard? A Computational Complexity Result
- Title(参考訳): いつ, なぜ説得が難しいのか? 計算複雑性の結果
- Authors: Zachary Wojtowicz,
- Abstract要約: 本稿では,情報説得を数学的決定問題として定式化し,人間とAIのエージェントを共通の概念的足場に配置する。
新たな証明では、説得力のあるメッセージは発見が困難である(NP-Hard)が、他者が提供すれば容易に採用できることが証明されている。
この非対称性は、人々がなぜ説得を受けやすいのかを説明するのに役立つ。
- 参考スコア(独自算出の注目度): 0.03626013617212666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As generative foundation models improve, they also tend to become more persuasive, raising concerns that AI automation will enable governments, firms, and other actors to manipulate beliefs with unprecedented scale and effectiveness at virtually no cost. The full economic and social ramifications of this trend have been difficult to foresee, however, given that we currently lack a complete theoretical understanding of why persuasion is costly for human labor to produce in the first place. This paper places human and AI agents on a common conceptual footing by formalizing informational persuasion as a mathematical decision problem and characterizing its computational complexity. A novel proof establishes that persuasive messages are challenging to discover (NP-Hard) but easy to adopt if supplied by others (NP). This asymmetry helps explain why people are susceptible to persuasion, even in contexts where all relevant information is publicly available. The result also illuminates why litigation, strategic communication, and other persuasion-oriented activities have historically been so human capital intensive, and it provides a new theoretical basis for studying how AI will impact various industries.
- Abstract(参考訳): 生成基盤モデルが改善されるにつれて、AI自動化が政府、企業、その他のアクターが、前例のない規模で、事実上無コストで、信念を操作できるようにするという懸念を提起する傾向にある。
この傾向の完全な経済的・社会的影響は予測が難しいが、そもそも、なぜ人的労働が生産するのにコストがかかるのかについての完全な理論的理解が現在欠けているため、予測は困難である。
本稿では,情報説得を数学的決定問題として定式化し,その計算複雑性を特徴付けることによって,人間とAIエージェントを共通の概念基盤に配置する。
新たな証明では、説得力のあるメッセージは発見が困難である(NP-Hard)が、他者が提供すれば容易に採用できる(NP)。
この非対称性は、人々がなぜ説得を受けやすいのかを説明するのに役立つ。
この結果は、訴訟、戦略的コミュニケーション、その他の説得指向の活動が歴史的に人的資本集約的であった理由を照らし、AIが様々な産業にどのように影響するかを研究するための新たな理論的基盤を提供する。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Explanations Can Reduce Overreliance on AI Systems During
Decision-Making [12.652229245306671]
我々は、AIの説明に携わるか否かを戦略的に選択し、AIの説明が過信を減少させるシナリオが存在することを示した。
我々は迷路タスクのコストと利益を操作し、参加者は迷路の出口を見つけるためにシミュレーションAIと協力する。
文献で見いだされた無効効果のいくつかは、AIの予測を検証するコストを十分に削減していない説明によるものである可能性が示唆された。
論文 参考訳(メタデータ) (2022-12-13T18:59:31Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Levels of explainable artificial intelligence for human-aligned
conversational explanations [0.6571063542099524]
人々は毎日自律的な決定に影響を受けており、結果を受け入れるためには意思決定プロセスを理解する必要があります。
本稿は,人間の会話説明システムを構築するために,説明のレベルを定義し,それらをどのように統合するかを説明することを目的とする。
論文 参考訳(メタデータ) (2021-07-07T12:19:16Z) - Towards a framework for understanding societal and ethical implications
of Artificial Intelligence [2.28438857884398]
本研究の目的は,AIの大量取り込みによって引き起こされる社会的・倫理的課題を明らかにすることである。
1) 好ましくない影響, 2) 責任, 3) 未知の結果, 4) 関係人ロボット, 5) 権力と富の集中, 6) 意図的悪用, 7) 武器と戦争のためのAI。
論文 参考訳(メタデータ) (2020-01-03T17:55:15Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。