論文の概要: SoK: A Classification for AI-driven Personalized Privacy Assistants
- arxiv url: http://arxiv.org/abs/2502.07693v1
- Date: Tue, 11 Feb 2025 16:46:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 18:22:48.245847
- Title: SoK: A Classification for AI-driven Personalized Privacy Assistants
- Title(参考訳): SoK:AIによるパーソナライズされたプライバシアシスタントの分類
- Authors: Victor Morel, Leonardo Iwaya, Simone Fischer-Hübner,
- Abstract要約: 本稿では,科学文献に見られる既存の解を地図化するために,知識の体系化(SoK)を提案する。
我々は過去10年間(2013-2023)に1697件のユニークな研究論文をスクリーニングし、39件の論文から分類した。
私たちは、AI駆動型PPAの包括的な分類を提供し、アーキテクチャの選択、システムコンテキスト、使用されるAIの種類、データソース、意思決定の種類、意思決定の制御などについて調べています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To help users make privacy-related decisions, personalized privacy assistants based on AI technology have been developed in recent years. These AI-driven Personalized Privacy Assistants (AI-driven PPAs) can reap significant benefits for users, who may otherwise struggle to make decisions regarding their personal data in environments saturated with privacy-related decision requests. However, no study systematically inquired about the features of these AI-driven PPAs, their underlying technologies, or the accuracy of their decisions. To fill this gap, we present a Systematization of Knowledge (SoK) to map the existing solutions found in the scientific literature. We screened 1697 unique research papers over the last decade (2013-2023), constructing a classification from 39 included papers. As a result, this SoK reviews several aspects of existing research on AI-driven PPAs in terms of types of publications, contributions, methodological quality, and other quantitative insights. Furthermore, we provide a comprehensive classification for AI-driven PPAs, delving into their architectural choices, system contexts, types of AI used, data sources, types of decisions, and control over decisions, among other facets. Based on our SoK, we further underline the research gaps and challenges and formulate recommendations for the design and development of AI-driven PPAs as well as avenues for future research.
- Abstract(参考訳): ユーザのプライバシに関する意思決定を支援するために、AI技術に基づくパーソナライズされたプライバシアシスタントが近年開発されている。
これらのAI駆動のパーソナライズドプライバシアシスタント(AI駆動型プライバシアシスタント)は、プライバシー関連の決定要求に飽和した環境で個人情報に関する決定を下すことに苦労しているユーザにとって、大きなメリットを享受することができる。
しかしながら、これらのAI駆動型PPAの特徴、基礎技術、意思決定の正確性について、体系的な調査は行われていない。
このギャップを埋めるために、科学文献に見られる既存のソリューションをマッピングするために、知識の体系化(SoK)を提案する。
我々は過去10年間(2013-2023)に1697件のユニークな研究論文をスクリーニングし、39件の論文から分類した。
結果として、このSoKは、出版物のタイプ、コントリビューション、方法論的品質、その他の定量的洞察の観点から、AI駆動型PPAに関する既存の研究のいくつかの側面をレビューする。
さらに、アーキテクチャ上の選択、システムコンテキスト、使用するAIの種類、データソース、意思決定の種類、意思決定の制御など、AI駆動型PPAの包括的な分類も提供します。
SoKに基づいて、研究のギャップと課題について、AI駆動型PPAの設計と開発と将来の研究への道のりについて、さらに具体化し、勧告を定式化します。
関連論文リスト
- ResearcherBench: Evaluating Deep AI Research Systems on the Frontiers of Scientific Inquiry [22.615102398311432]
我々は、ディープAI研究システムの能力を評価することに焦点を当てた最初のベンチマークであるResearcherBenchを紹介する。
現実の科学的シナリオから専門的に選択された65の質問のデータセットを収集した。
OpenAI Deep ResearchとGemini Deep Researchは、他のシステムよりも格段に優れており、オープンエンドのコンサルティングの質問では特に強みがある。
論文 参考訳(メタデータ) (2025-07-22T06:51:26Z) - Deep Research Agents: A Systematic Examination And Roadmap [79.04813794804377]
Deep Research (DR) エージェントは複雑な多ターン情報研究タスクに取り組むように設計されている。
本稿では,DRエージェントを構成する基礎技術とアーキテクチャコンポーネントの詳細な分析を行う。
論文 参考訳(メタデータ) (2025-06-22T16:52:48Z) - Multi-Objective Recommendation in the Era of Generative AI: A Survey of Recent Progress and Future Prospects [11.092520571626732]
生成AIは、コンテンツ生成、データ合成、パーソナライズされたエクスペリエンスを可能にする。
生成AIは、データの分散性の問題に対処し、レコメンデーションシステム全体のパフォーマンスを改善するのに役立つ。
生成的AI技術に基づく多目的レコメンデーションシステムに関する総合的な研究はいまだ残っていない。
論文 参考訳(メタデータ) (2025-06-20T10:30:39Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - AI in Software Engineering: Perceived Roles and Their Impact on Adoption [0.0]
本稿では,開発者がAIを活用した開発ツールをどのように概念化するかを検討する。
私たちは、AIを不生のツールとして、AIを人間のようなチームメイトとして、2つの主要なメンタルモデルを特定します。
論文 参考訳(メタデータ) (2025-04-29T00:37:49Z) - Leveraging LLMs for User Stories in AI Systems: UStAI Dataset [0.38233569758620056]
大きな言語モデル(LLM)は、人間の生成したテキストに代わる有望な代替手段として浮上している。
本稿では,学術論文の要約に基づいて,LLMを用いたAIシステムにおけるユーザストーリ生成の可能性について検討する。
分析の結果,LLMは様々な利害関係者のニーズに触発されたユーザストーリーを生成できることがわかった。
論文 参考訳(メタデータ) (2025-04-01T08:03:40Z) - User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - Awareness and Adoption of AI Technologies in the Libraries of Karnataka [0.0]
本研究は,カルナタカの書誌専門家を対象に,AI技術の意識と採用を評価するための調査手法を用いた。
この研究は、性別の要因に基づくAI技術の認識と採用に統計的に有意な違いがあることを明らかにした。
年齢、学歴、専門的経験などの要因に基づくAI技術の認識度と採用度の間には、有意な関係は存在しない。
論文 参考訳(メタデータ) (2024-07-10T09:33:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Resilience of Deep Learning applications: a systematic literature review of analysis and hardening techniques [3.265458968159693]
このレビューは、2019年1月から2024年3月までに発行された220の科学論文に基づいている。
著者らは、研究の類似点と特異点を解釈し、強調するために分類フレームワークを採用している。
論文 参考訳(メタデータ) (2023-09-27T19:22:19Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - On the Importance of Domain-specific Explanations in AI-based
Cybersecurity Systems (Technical Report) [7.316266670238795]
このような決定に対する理解の欠如は、サイバーセキュリティに関連する重要なドメインにおいて大きな欠点となる可能性がある。
本稿では,AIベースのサイバーセキュリティシステムによって生成されたアウトプットを説明するために,デシダラタの提案と議論を行う。 (ii)デシダラタのレンズ下での文献におけるアプローチと,XAIアプローチの検証に一般的に使用される余分な次元の比較分析,および (iii)AIベースのサイバーセキュリティシステムの開発に向けた研究活動の指針となる一般的なアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2021-08-02T22:55:13Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。