論文の概要: Designing AI-Enabled Countermeasures to Cognitive Warfare
- arxiv url: http://arxiv.org/abs/2504.11486v1
- Date: Mon, 14 Apr 2025 11:36:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 01:45:25.089753
- Title: Designing AI-Enabled Countermeasures to Cognitive Warfare
- Title(参考訳): 認知的戦乱に対するAI対応対策の設計
- Authors: Jurriaan van Diggelen, Eugene Aidman, Jazz Rowa, Julian Vince,
- Abstract要約: ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foreign information operations on social media platforms pose significant risks to democratic societies. With the rise of Artificial Intelligence (AI), this threat is likely to intensify, potentially overwhelming human defenders. To achieve the necessary scale and tempo to defend against these threats, utilizing AI as part of the solution seems inevitable. Although there has been a significant debate on AI in Lethal Autonomous Weapon Systems (LAWS), it is equally likely that AI will be widely used in information operations for defensive and offensive objectives. Similar to LAWS, AI-driven information operations occupy a highly sensitive moral domain where removing human involvement in the tactical decision making process raises ethical concerns. Although AI has yet to revolutionize the field, a solid ethical stance is urgently needed on how AI can be responsibly used to defend against information operations on social media platforms. This paper proposes possible AI-enabled countermeasures against cognitive warfare and argues how they can be developed in a responsible way, such that meaningful human control is preserved.
- Abstract(参考訳): ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
これらの脅威に対して防御するために必要なスケールとテンポを達成するために、ソリューションの一部としてAIを活用することは避けられないように思える。
Lehal Autonomous Weapon Systems (LAWS) ではAIに関する重要な議論があったが、防衛や攻撃的な目的のために情報操作にAIが広く使用される可能性が高い。
LAWSと同様に、AIによる情報操作は、戦術的意思決定プロセスへの人間の関与を取り除くという非常に敏感なモラルドメインを占有する。
AIはまだこの分野に革命を起こさないが、ソーシャルメディアプラットフォーム上の情報操作に対してAIを責任を持って防御する方法に関して、確固たる倫理的スタンスが緊急に必要である。
本稿では、認知戦争に対するAI対応対策の可能性を提案し、有意義な人的制御が維持されるように、それらを責任ある方法で開発する方法を論じる。
関連論文リスト
- Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - A Technological Perspective on Misuse of Available AI [41.94295877935867]
民間人工知能(AI)の悪意ある誤用は、国家や国際レベルでのセキュリティに深刻な脅威をもたらす可能性がある。
既存のオープンなAI技術が、いかに誤用されているかを示します。
我々は、政治的、デジタル的、物理的セキュリティを脅かす、潜在的に誤用されたAIの典型的なユースケースを3つ開発する。
論文 参考訳(メタデータ) (2024-03-22T16:30:58Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Artificial Influence: An Analysis Of AI-Driven Persuasion [0.0]
ユビキタスで高説得力のあるAIシステムは、私たちの情報環境を大きく変えて、私たちの将来の人間のコントロールを失うのに寄与する、と警告する。
われわれは、これらのソリューションはどれも監視されていないと結論し、個人や政府は、説得力のあるAIの最も悪影響から守るために、積極的な措置を講じる必要があると結論付けている。
論文 参考訳(メタデータ) (2023-03-15T16:05:11Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。