論文の概要: Developing a Trusted Human-AI Network for Humanitarian Benefit
- arxiv url: http://arxiv.org/abs/2112.11191v1
- Date: Tue, 7 Dec 2021 11:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-26 15:12:35.393641
- Title: Developing a Trusted Human-AI Network for Humanitarian Benefit
- Title(参考訳): 人道的利益のための信頼されたヒューマンaiネットワークの開発
- Authors: Susannah Kate Devitt, Jason Scholz, Timo Schless, Larry Lewis
- Abstract要約: 我々は、コミュニケーションプロトコル、分散台帳技術、人工知能(AI)との情報融合の統合を検討する。
このような信頼された人間-AIコミュニケーションネットワークは、人間と機械の紛争における保護された実体、重要なインフラ、人道的信号、ステータス更新に関する説明可能な情報交換を提供することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans and artificial intelligences (AI) will increasingly participate
digitally and physically in conflicts, yet there is a lack of trusted
communications across agents and platforms. For example, humans in disasters
and conflict already use messaging and social media to share information,
however, international humanitarian relief organisations treat this information
as unverifiable and untrustworthy. AI may reduce the 'fog-of-war' and improve
outcomes, however AI implementations are often brittle, have a narrow scope of
application and wide ethical risks. Meanwhile, human error causes significant
civilian harms even by combatants committed to complying with international
humanitarian law. AI offers an opportunity to help reduce the tragedy of war
and deliver humanitarian aid to those who need it. In this paper we consider
the integration of a communications protocol (the 'Whiteflag protocol'),
distributed ledger technology, and information fusion with artificial
intelligence (AI), to improve conflict communications called 'Protected
Assurance Understanding Situation and Entities' (PAUSE). Such a trusted
human-AI communication network could provide accountable information exchange
regarding protected entities, critical infrastructure; humanitarian signals and
status updates for humans and machines in conflicts.
- Abstract(参考訳): 人間と人工知能(AI)は、デジタルおよび物理的に紛争に参加しているが、エージェントやプラットフォーム間の信頼できるコミュニケーションが欠如している。
例えば、災害や紛争の人間はすでにメッセージやソーシャルメディアを使って情報を共有しているが、国際的な人道支援組織はこの情報を検証不可能で信頼できないものとして扱う。
AIは「戦前の恐怖」を減らし、成果を改善するが、AIの実装は不安定で、適用範囲が狭く、倫理的リスクも広い。
一方、人的ミスは国際人道法に従おうとする戦闘員にも重大な民間人的被害をもたらす。
AIは戦争の悲劇を減らし、それを必要とする人々に人道支援を提供する機会を提供する。
本稿では、通信プロトコル(「ホワイトフラッグプロトコル」)、分散台帳技術、および人工知能(ai)との情報融合を統合し、「保護保証理解状況と実体」(pause)と呼ばれる紛争コミュニケーションを改善することを検討する。
このような信頼できる人間-AIコミュニケーションネットワークは、人間と機械の紛争における保護された実体、重要なインフラ、人道的信号、ステータス更新に関する説明可能な情報交換を提供することができる。
関連論文リスト
- Combining Theory of Mind and Kindness for Self-Supervised Human-AI Alignment [0.0]
現在のAIモデルは、安全よりもタスク最適化を優先しており、意図しない害のリスクにつながっている。
本稿では,これらの諸問題に対処し,競合する目標の整合化を支援することを目的とした,人間に触発された新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-21T22:04:44Z) - AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research [6.96356867602455]
自律兵器システム(AWS)開発における機械学習の最近の採用は、地政学的な安定性とAI研究におけるアイデアの自由交換に深刻なリスクをもたらす、と我々は主張する。
MLはすでに、多くの戦場で、人間の兵士のためのAWSの代替を可能にしている。
さらに、AWSの軍事的価値は、AIによる軍備競争の投機と、AI研究に対する国家安全保障上の制限の誤った適用を提起する。
論文 参考訳(メタデータ) (2024-05-03T05:19:45Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。