論文の概要: Secure Artificial Intelligence of Things for Implicit Group
Recommendations
- arxiv url: http://arxiv.org/abs/2104.11699v1
- Date: Fri, 23 Apr 2021 16:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:08:43.007329
- Title: Secure Artificial Intelligence of Things for Implicit Group
Recommendations
- Title(参考訳): 不適切なグループ勧告のためのセキュアな人工知能
- Authors: Keping Yu, Zhiwei Guo, Yu Shen, Wei Wang, Jerry Chun-Wei Lin, Takuro
Sato
- Abstract要約: 本稿では,暗黙グループ勧告(SAIoT-GR)のためのセキュアな人工知能を提案する。
ハードウェアモジュールに関しては、ボトムサポートプラットフォームとしてセキュアなIoT構造が開発されている。
協調ベイズネットワークモデルと非協調ゲームはアルゴリズムとして導入することができる。
- 参考スコア(独自算出の注目度): 12.483368247638763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Artificial Intelligence of Things (AIoT) has provided novel
insights for many social computing applications such as group recommender
systems. As distance among people has been greatly shortened, it has been a
more general demand to provide personalized services to groups instead of
individuals. In order to capture group-level preference features from
individuals, existing methods were mostly established via aggregation and face
two aspects of challenges: secure data management workflow is absent, and
implicit preference feedbacks is ignored. To tackle current difficulties, this
paper proposes secure Artificial Intelligence of Things for implicit Group
Recommendations (SAIoT-GR). As for hardware module, a secure IoT structure is
developed as the bottom support platform. As for software module, collaborative
Bayesian network model and non-cooperative game are can be introduced as
algorithms. Such a secure AIoT architecture is able to maximize the advantages
of the two modules. In addition, a large number of experiments are carried out
to evaluate the performance of the SAIoT-GR in terms of efficiency and
robustness.
- Abstract(参考訳): AIoT(Artificial Intelligence of Things)の出現は、グループレコメンダシステムなど、多くのソーシャルコンピューティングアプリケーションに新たな洞察をもたらした。
人間距離が大幅に短縮されているため、個人ではなくグループにパーソナライズされたサービスを提供することがより一般的な要求となっている。
グループレベルの個人の嗜好を捉えるために,既存の手法は集約を通じて確立され,セキュアなデータ管理ワークフローが欠如しており,暗黙的な選好フィードバックが無視されている,という2つの課題に直面している。
現状の課題に対処するために,暗黙グループ勧告(SAIoT-GR)のためのセキュアなモノの人工知能を提案する。
ハードウェアモジュールに関しては、ボトムサポートプラットフォームとしてセキュアなIoT構造が開発されている。
ソフトウェアモジュールに関しては、協調ベイズネットワークモデルと非協調ゲームがアルゴリズムとして導入可能である。
このようなセキュアなAIoTアーキテクチャは、2つのモジュールのメリットを最大化することができる。
さらに,SAIoT-GRの性能を効率とロバスト性の観点から評価するために,多数の実験を行った。
関連論文リスト
- Building AI Agents for Autonomous Clouds: Challenges and Design Principles [17.03870042416836]
AI for IT Operations(AIOps)は、障害のローカライゼーションや根本原因分析といった複雑な運用タスクを自動化することを目的としている。
このビジョンペーパーは、まず要求をフレーミングし、次に設計決定について議論することで、そのようなフレームワークの基礎を定めています。
アプリケーションをオーケストレーションし,カオスエンジニアリングを使用してリアルタイム障害を注入するエージェント-クラウドインターフェースを活用したプロトタイプ実装であるAIOpsLabと,障害のローカライズと解決を行うエージェントとのインターフェースを提案する。
論文 参考訳(メタデータ) (2024-07-16T20:40:43Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - Enhancing Physical Layer Communication Security through Generative AI with Mixture of Experts [80.0638227807621]
生成人工知能(GAI)モデルは、従来のAI手法よりも優れていることを示した。
ゲート機構による予測に複数の専門家モデルを使用するMoEは、可能なソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-07T11:13:17Z) - Institutional Platform for Secure Self-Service Large Language Model Exploration [0.0]
論文では、データセットキュレーション、モデルトレーニング、セキュア推論、テキストベースの特徴抽出を含む、システムのアーキテクチャと重要な特徴について概説する。
プラットフォームはセキュアなLLMサービスの提供、プロセスとデータ分離の強調、エンドツーエンドの暗号化、ロールベースのリソース認証を目指している。
論文 参考訳(メタデータ) (2024-02-01T10:58:10Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - A Novel IoT Trust Model Leveraging Fully Distributed Behavioral
Fingerprinting and Secure Delegation [3.10770247120758]
IoT(Internet of Things)ソリューションは、データ収集と処理を容易にするために、急激な需要を実験している。
自律的な方法で提供される新機能やサービスの数が増えるほど、ユーザをデータハッキングや損失に晒す攻撃面が大きくなる。
そこで本稿では, スマートなものの装備に関する非自明な問題に対処し, 隣人を通じて, ネットワーク内のオブジェクトの信頼性を, 対話前に評価する戦略を提示する。
論文 参考訳(メタデータ) (2023-10-02T07:45:49Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Realistic simulation of users for IT systems in cyber ranges [63.20765930558542]
ユーザアクティビティを生成するために,外部エージェントを用いて各マシンを計測する。
このエージェントは、決定論的および深層学習に基づく手法を組み合わせて、異なる環境に適応する。
また,会話や文書の作成を容易にする条件付きテキスト生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T10:53:29Z) - How Can Subgroup Discovery Help AIOps? [0.0]
サブグループディスカバリがAIOpsにどのように役立つかを研究する。
このプロジェクトには、フランスのソフトウェアエディタであるInfologicalのデータマイニングの研究者と実践者の両方が含まれる。
論文 参考訳(メタデータ) (2021-09-10T14:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。