論文の概要: SoK: "Interoperability vs Security" Arguments: A Technical Framework
- arxiv url: http://arxiv.org/abs/2502.04538v2
- Date: Tue, 24 Jun 2025 22:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 14:36:55.364591
- Title: SoK: "Interoperability vs Security" Arguments: A Technical Framework
- Title(参考訳): SoK: "相互運用性 vs. セキュリティ" 問題: 技術的フレームワーク
- Authors: Daji Landis, Elettra Bietti, Sunoo Park,
- Abstract要約: 大企業の独占力に関する懸念は、近年のメディアや政策論議で顕著に取り上げられている。
EU、米国、その他の規制当局は、より健全な市場競争を促進する努力を強化している。
当然ながら、インターオペラビリティのイニシアチブは、大企業の抵抗に直面している。
- 参考スコア(独自算出の注目度): 1.4049479722250835
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Concerns about big tech's monopoly power have featured prominently in recent media and policy discourse, as regulators across the EU, the US, and beyond have ramped up efforts to promote healthier market competition. One favored approach is to require certain kinds of interoperation between platforms, to mitigate the current concentration of power in the biggest companies. Unsurprisingly, interoperability initiatives have generally been met with resistance by big tech companies. Perhaps more surprisingly, a significant part of that pushback has been in the name of security -- that is, arguing against interoperation on the basis that it will undermine security. We conduct a systematic examination of "security vs. interoperability" (SvI) discourse in the context of EU antitrust proceedings. Our resulting contributions are threefold. First, we propose a taxonomy of SvI concerns in three categories: engineering, vetting, and hybrid. Second, we present an analytical framework for assessing real-world SvI concerns, and illustrate its utility by analyzing several case studies spanning our three taxonomy categories. Third, we undertake a comparative analysis that highlights key considerations around the interplay of economic incentives, market power, and security across our diverse case study contexts, identifying common patterns in each taxonomy category. Our contributions provide valuable analytical tools for experts and non-experts alike to critically assess SvI discourse in today's fast-paced regulatory landscape.
- Abstract(参考訳): 大手テクノロジー企業の独占力に関する懸念は、最近のメディアや政策の議論で顕著に取り上げられており、EU、米国、その他の規制当局がより健全な市場競争を促進する努力を強めている。
1つの好ましいアプローチは、大企業における現在の電力集中を軽減するために、プラットフォーム間のある種の相互運用を必要とすることである。
当然ながら、インターオペラビリティのイニシアチブは、大企業の抵抗に直面している。
おそらくもっと驚くべきことに、その大きな反発は、セキュリティの名において -- つまり、セキュリティを損なうという根拠に基づいて、相互運用に反対しているのです。
我々は、EU反トラスト手続の文脈で「セキュリティ対相互運用性」(SvI)の体系的な検討を行う。
結果、コントリビューションは3倍になります。
まず,SvIに関する分類を工学,ベッティング,ハイブリッドの3つのカテゴリに分類する。
第2に、現実世界のSvIの懸念を評価するための分析フレームワークを提案し、3つの分類カテゴリーにまたがるいくつかのケーススタディを分析し、その有用性を説明する。
第3に、経済インセンティブ、市場パワー、セキュリティの相互運用に関する重要な考察を、さまざまなケーススタディの文脈で強調した比較分析を行い、各分類カテゴリーの共通パターンを特定します。
我々の貢献は、専門家や非専門家にも貴重な分析ツールを提供し、今日の急激な規制の状況におけるSvIの言説を批判的に評価する。
関連論文リスト
- Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - The BIG Argument for AI Safety Cases [4.0675753909100445]
BIGの議論は、さまざまな能力、自律性、臨界性を持つAIシステムの安全ケースを構築するためのシステム全体のアプローチを採用する。
安全性と、プライバシーや株式といった他の重要な倫理的問題に対処することでバランスがとれる。
安全保証の社会的、倫理的、技術的側面を、追跡可能で説明可能な方法でまとめることによって統合される。
論文 参考訳(メタデータ) (2025-03-12T11:33:28Z) - MITRE ATT&CK Applications in Cybersecurity and The Way Forward [18.339713576170396]
MITRE ATT&CKフレームワークは、サイバーセキュリティを強化し、脅威インテリジェンス、インシデント対応、アタックモデリング、脆弱性優先順位付けをサポートするために広く採用されているツールである。
本論文は417冊の査読論文を解析し,これらの分野にまたがる応用研究を合成する。
我々は、一般的に使用される敵戦術、技法、手順(TTP)を特定し、脅威検出と応答を改善するために自然言語処理(NLP)と機械学習(ML)の統合を検討する。
論文 参考訳(メタデータ) (2025-02-15T15:01:04Z) - A Critical Analysis of Foundations, Challenges and Directions for Zero Trust Security in Cloud Environments [0.0]
本稿では,クラウドコンピューティングにおけるゼロトラストセキュリティ(ZTS)の理論的枠組みと応用展望について論じる。
本稿では、マイクロセグメンテーション、最小特権アクセス、連続監視など、ZTSの中核となる原理を解析する。
信頼の保証をゼロにする主な障壁は、大規模生産におけるパフォーマンスの低下の次元を含む概説された。
論文 参考訳(メタデータ) (2024-11-09T10:26:02Z) - Enhancing Enterprise Security with Zero Trust Architecture [0.0]
Zero Trust Architecture (ZTA) は、現代のサイバーセキュリティに対する変革的なアプローチである。
ZTAは、ユーザ、デバイス、システムがデフォルトで信頼できないことを前提として、セキュリティパラダイムをシフトする。
本稿では、アイデンティティとアクセス管理(IAM)、マイクロセグメンテーション、継続的監視、行動分析など、ZTAの重要なコンポーネントについて検討する。
論文 参考訳(メタデータ) (2024-10-23T21:53:16Z) - Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - PanoSent: A Panoptic Sextuple Extraction Benchmark for Multimodal Conversational Aspect-based Sentiment Analysis [74.41260927676747]
本稿では,マルチモーダル対話感分析(ABSA)を導入することでギャップを埋める。
タスクをベンチマークするために、手動と自動の両方で注釈付けされたデータセットであるPanoSentを構築し、高品質、大規模、マルチモーダル、マルチ言語主義、マルチシナリオを特徴とし、暗黙の感情要素と明示的な感情要素の両方をカバーする。
課題を効果的に解決するために,新しい多モーダルな大規模言語モデル(すなわちSentica)とパラフレーズベースの検証機構とともに,新しい感覚の連鎖推論フレームワークを考案した。
論文 参考訳(メタデータ) (2024-08-18T13:51:01Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Cross-Modality Safety Alignment [73.8765529028288]
我々は、モダリティ間の安全アライメントを評価するために、セーフインプットとアンセーフアウトプット(SIUO)と呼ばれる新しい安全アライメントの課題を導入する。
この問題を実証的に調査するため,我々はSIUOを作成した。SIUOは,自己修復,違法行為,プライバシー侵害など,9つの重要な安全領域を含むクロスモダリティベンチマークである。
以上の結果から, クローズドおよびオープンソース両方のLVLMの安全性上の重大な脆弱性が明らかとなり, 複雑で現実的なシナリオを確実に解釈し, 応答する上で, 現行モデルが不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T16:14:15Z) - Iterative Utility Judgment Framework via LLMs Inspired by Relevance in Philosophy [66.95501113584541]
ユーティリティとトピック関連性は、情報検索において重要な手段である。
本稿では,リトリーバル拡張生成のサイクルの各ステップを促進させるために,反復的ユーティリティである JudgmEnt fraMework を提案する。
論文 参考訳(メタデータ) (2024-06-17T07:52:42Z) - Linkage on Security, Privacy and Fairness in Federated Learning: New Balances and New Perspectives [48.48294460952039]
この調査は、フェデレートラーニングにおけるプライバシー、セキュリティ、公平性の問題に関する包括的な説明を提供する。
プライバシーと公平性と、セキュリティと共有の間にはトレードオフがある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-16T10:31:45Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Unsealing the secrets of blockchain consensus: A systematic comparison of the formal security of proof-of-work and proof-of-stake [0.40964539027092917]
コンセンサスメカニズムの選択は多くの議論の中心にある。
最長のチェーンルールに対するPoWベースの合意は、最も強力な公式なセキュリティ保証を提供する。
PoSは、安全性と生活のトレードオフをより顕著なものにすることで、同様の保証を達成できる。
論文 参考訳(メタデータ) (2024-01-25T21:40:22Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - APPRAISE: a governance framework for innovation with AI systems [0.0]
EU人工知能法(英語: EU Artificial Intelligence Act、AIA)は、AIシステムの有害な影響を封じ込めようとする最初の重大な立法の試みである。
本稿では,AIイノベーションのためのガバナンスフレームワークを提案する。
このフレームワークは戦略変数と責任ある価値創造のギャップを埋める。
論文 参考訳(メタデータ) (2023-09-26T12:20:07Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Towards Identifying Social Bias in Dialog Systems: Frame, Datasets, and
Benchmarks [95.29345070102045]
本稿では,ダイアログの安全性問題に対する社会的バイアス検出に焦点をあてる。
まず,会話における社会的バイアスを現実的に分析する新しいダイアルバイアスフレームを提案する。
中国初の社会バイアスダイアログデータセットであるCDail-Biasデータセットを紹介する。
論文 参考訳(メタデータ) (2022-02-16T11:59:29Z) - Big data and big values: When companies need to rethink themselves [0.0]
テキストマイニング,ソーシャルネットワーク,ビッグデータ分析を組み合わせた新しい手法を提案する。
フォーチュン誌の「世界で最も賞賛される企業」ランキングに記載された企業の中核的価値に関連するツイートは9万4000件以上収集した。
イタリアのシナリオでは、3つの主要な価値指向(顧客、従業員、卓越性)と3つの潜在価値(経済的・財政的成長、市民権、社会的責任)を見出した。
私たちの貢献は主に方法論的であり、テキストマイニングや複雑なビジネスコンテキストに適用されたオンラインビッグデータ分析の研究を拡張しています。
論文 参考訳(メタデータ) (2021-05-25T16:26:38Z) - Discovering Airline-Specific Business Intelligence from Online Passenger
Reviews: An Unsupervised Text Analytics Approach [3.2872586139884623]
航空は豊富なオンライン顧客レビュー(OCR)に乗じることができる
本稿では,教師なしテキスト分析手法を用いてocrから企業および競合企業固有の知性を検出する。
提案手法の検証には,米国拠点のターゲットキャリアの99,147件の航空会社レビューと,その競合企業4社のケーススタディが使用されている。
論文 参考訳(メタデータ) (2020-12-14T23:09:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。