論文の概要: "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe
- arxiv url: http://arxiv.org/abs/2510.00909v1
- Date: Wed, 01 Oct 2025 13:51:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.593871
- Title: "We are not Future-ready": Understanding AI Privacy Risks and Existing Mitigation Strategies from the Perspective of AI Developers in Europe
- Title(参考訳): AIプライバシリスクの理解と欧州におけるAI開発者の視点からの既存の緩和戦略
- Authors: Alexandra Klymenko, Stephen Meisenbacher, Patrick Gage Kelley, Sai Teja Peddinti, Kurt Thomas, Florian Matthes,
- Abstract要約: ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威を理解しました。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識しているが、彼らは最小限の現実的採用を報告した。
- 参考スコア(独自算出の注目度): 56.1653658714305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The proliferation of AI has sparked privacy concerns related to training data, model interfaces, downstream applications, and more. We interviewed 25 AI developers based in Europe to understand which privacy threats they believe pose the greatest risk to users, developers, and businesses and what protective strategies, if any, would help to mitigate them. We find that there is little consensus among AI developers on the relative ranking of privacy risks. These differences stem from salient reasoning patterns that often relate to human rather than purely technical factors. Furthermore, while AI developers are aware of proposed mitigation strategies for addressing these risks, they reported minimal real-world adoption. Our findings highlight both gaps and opportunities for empowering AI developers to better address privacy risks in AI.
- Abstract(参考訳): AIの普及は、トレーニングデータ、モデルインターフェース、ダウンストリームアプリケーションなどに関するプライバシー上の懸念を引き起こしている。
ヨーロッパを拠点とする25人のAI開発者を対象にインタビューを行い、ユーザ、開発者、ビジネスに最もリスクをもたらすと彼らが信じているプライバシの脅威と、それを緩和するための保護戦略について聞いた。
プライバシリスクの相対的なランク付けに関して、AI開発者の間ではほとんど合意が得られていないことが分かっています。
これらの違いは、純粋に技術的な要因ではなく、人間によく関係する健全な推論パターンに起因している。
さらに、AI開発者はこれらのリスクに対処するために提案された緩和戦略を認識している一方で、彼らは、最小限の現実的採用を報告した。
われわれの調査結果は、AI開発者がAIのプライバシーリスクに対処するためのギャップと機会の両方を浮き彫りにした。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 [61.787178868669265]
この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。
この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。
論文 参考訳(メタデータ) (2026-02-16T04:30:06Z) - Superintelligent Agents Pose Catastrophic Risks: Can Scientist AI Offer a Safer Path? [37.13209023718946]
未確認のAI機関は、公共の安全とセキュリティに重大なリスクをもたらす。
これらのリスクが現在のAIトレーニング方法からどのように生じるかについて議論する。
我々は,非エージェント型AIシステムの開発をさらに進めるために,コアビルディングブロックを提案する。
論文 参考訳(メタデータ) (2025-02-21T18:28:36Z) - Why do Experts Disagree on Existential Risk and P(doom)? A Survey of AI Experts [0.0]
破滅的なリスクとAIアライメントに関する研究は、専門家による懐疑的な見方がしばしばある。
AIの実在するリスクに関するオンライン議論が、部族化し始めた。
AIの安全性の概念に精通している111人のAI専門家を調査しました。
論文 参考訳(メタデータ) (2025-01-25T01:51:29Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。