論文の概要: The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI
- arxiv url: http://arxiv.org/abs/2501.18669v1
- Date: Thu, 30 Jan 2025 17:04:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:04:02.514977
- Title: The Pitfalls of "Security by Obscurity" And What They Mean for Transparent AI
- Title(参考訳): 透明AIの「不確実性による安全」の落とし穴とその意味
- Authors: Peter Hall, Olivia Mundahl, Sunoo Park,
- Abstract要約: 透明性のメリットに関するセキュリティコミュニティの視点では,3つの重要なテーマを特定します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
- 参考スコア(独自算出の注目度): 4.627627425427264
- License:
- Abstract: Calls for transparency in AI systems are growing in number and urgency from diverse stakeholders ranging from regulators to researchers to users (with a comparative absence of companies developing AI). Notions of transparency for AI abound, each addressing distinct interests and concerns. In computer security, transparency is likewise regarded as a key concept. The security community has for decades pushed back against so-called security by obscurity -- the idea that hiding how a system works protects it from attack -- against significant pressure from industry and other stakeholders. Over the decades, in a community process that is imperfect and ongoing, security researchers and practitioners have gradually built up some norms and practices around how to balance transparency interests with possible negative side effects. This paper asks: What insights can the AI community take from the security community's experience with transparency? We identify three key themes in the security community's perspective on the benefits of transparency and their approach to balancing transparency against countervailing interests. For each, we investigate parallels and insights relevant to transparency in AI. We then provide a case study discussion on how transparency has shaped the research subfield of anonymization. Finally, shifting our focus from similarities to differences, we highlight key transparency issues where modern AI systems present challenges different from other kinds of security-critical systems, raising interesting open questions for the security and AI communities alike.
- Abstract(参考訳): AIシステムの透明性を求める声は、規制当局から研究者、ユーザに至るまで、さまざまな利害関係者から(AIを開発している会社を比較的欠いている)まで、数と緊急度が増加している。
AIに対する透明性の通知は、それぞれ異なる関心と関心に対処する。
コンピュータセキュリティにおいて、透明性は鍵となる概念とみなされる。
セキュリティコミュニティは何十年にもわたって、システムがどのように機能するかを隠蔽して攻撃から守るという、いわゆる「不明瞭さ」によるセキュリティを、業界や他の利害関係者からの多大な圧力から後退させてきた。
何十年もの間、不完全で進行中のコミュニティプロセスにおいて、セキュリティ研究者と実践者は、透明性の利益とネガティブな副作用のバランスをとる方法に関する規範とプラクティスを徐々に構築してきた。
この論文は、 セキュリティコミュニティの透明性に関する経験から、AIコミュニティはどのような洞察を得られるのか?
我々は、透明性の利点と、不当な利益に対する透明性のバランスをとるためのアプローチについて、セキュリティコミュニティの視点における3つの重要なテーマを特定します。
それぞれについて、AIの透明性に関連する並列性と洞察を調査します。
次に、匿名化研究のサブフィールドを透明性がいかに形成したかについてのケーススタディの議論を行う。
最後に、私たちの焦点を類似点から相違点にシフトさせることで、現代のAIシステムが他の種類のセキュリティクリティカルシステムとは異なる課題を提示する、重要な透明性の問題を強調します。
関連論文リスト
- Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Through the Looking-Glass: Transparency Implications and Challenges in Enterprise AI Knowledge Systems [3.9143193313607085]
本稿では,AI知識システムにおける透明性要件と影響のリフレクティブ分析について述べる。
私たちは透明性を、さまざまな見方を形作る上で重要な仲介者として定式化しています。
我々は,AI知識システムの価値を実現するために必要な3つの透明性次元を同定する。
論文 参考訳(メタデータ) (2024-01-17T18:47:30Z) - Path To Gain Functional Transparency In Artificial Intelligence With
Meaningful Explainability [0.0]
AIシステムがますます高度化するにつれて、透明性と説明可能性の確保が重要になる。
透明なシステムにおけるユーザ中心のコンプライアンス・バイ・デザイン透過性の設計を提案する。
AIシステムにおける透明性に関連する課題を包括的に理解することで、説明責任、信頼性、社会的価値に整合したAIシステムの開発を促進することを目指している。
論文 参考訳(メタデータ) (2023-10-13T04:25:30Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。