論文の概要: Machine Learning Featurizations for AI Hacking of Political Systems
- arxiv url: http://arxiv.org/abs/2110.09231v1
- Date: Fri, 8 Oct 2021 16:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 13:52:43.444355
- Title: Machine Learning Featurizations for AI Hacking of Political Systems
- Title(参考訳): 政治システムのAIハッキングのための機械学習機能
- Authors: Nathan E Sanders, Bruce Schneier
- Abstract要約: 最近のエッセイ"The Coming AI Hackers"の中で、Schneier氏は、社会、経済、政治システムの脆弱性を発見し、操作し、悪用するための人工知能の将来の応用を提案した。
この研究は、AIハッキングの可能な"機能化"フレームワークを仮定して、機械学習から理論を適用することによって、概念を前進させる。
政治システムの属性や結果を予測するために,さまざまなディープラーニングモデルの応用を可能にするグラフとシーケンスデータ表現を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: What would the inputs be to a machine whose output is the destabilization of
a robust democracy, or whose emanations could disrupt the political power of
nations? In the recent essay "The Coming AI Hackers," Schneier (2021) proposed
a future application of artificial intelligences to discover, manipulate, and
exploit vulnerabilities of social, economic, and political systems at speeds
far greater than humans' ability to recognize and respond to such threats. This
work advances the concept by applying to it theory from machine learning,
hypothesizing some possible "featurization" (input specification and
transformation) frameworks for AI hacking. Focusing on the political domain, we
develop graph and sequence data representations that would enable the
application of a range of deep learning models to predict attributes and
outcomes of political systems. We explore possible data models, datasets,
predictive tasks, and actionable applications associated with each framework.
We speculate about the likely practical impact and feasibility of such models,
and conclude by discussing their ethical implications.
- Abstract(参考訳): 強固な民主主義の不安定化をアウトプットとするマシンや、国家の政治権力を混乱させる可能性のあるマシンへのインプットは何でしょうか?
最近のエッセイ“The Coming AI Hackers”の中で、Schneier氏(2021年)は、人工知能の将来の応用として、社会的、経済的、政治的システムの脆弱性を発見し、操作し、悪用することを提案した。
本研究は、機械学習からit理論を応用し、aiハッキングの可能な「実現」(入力仕様と変換)フレームワークを仮定することで、概念を進歩させる。
政治領域に着目して,政治システムの属性や成果を予測するために,さまざまなディープラーニングモデルの適用を可能にするグラフとシーケンスデータ表現を開発する。
可能なデータモデル、データセット、予測タスク、および各フレームワークに関連する実行可能なアプリケーションについて検討する。
このようなモデルの実用的影響と実現可能性について推測し、倫理的影響について議論することで結論づける。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI and Social Theory [0.0]
我々は、人工知能(AI)が意味するものを定義することから始まる、AI駆動型社会理論のプログラムをスケッチする。
そして、AIベースのモデルがデジタルデータの可用性を増大させ、予測力に基づいて異なる社会的理論の有効性をテストするためのモデルを構築します。
論文 参考訳(メタデータ) (2024-07-07T12:26:16Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Machines and Influence [0.0]
本稿では、AI能力を調査し、この問題に対処する。
本稿では、AIの対角的応用をフレーム化し、ナビゲートするマシンインフェクトのマトリックスを紹介する。
情報システムのより良い規制と管理は、AIのリスクを最適に相殺することを提案する。
論文 参考訳(メタデータ) (2021-11-26T08:58:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable [5.4138734778206]
ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
論文 参考訳(メタデータ) (2020-12-11T00:50:09Z) - Politics of Adversarial Machine Learning [0.7837881800517111]
敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-02-01T01:15:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。