論文の概要: RUVA: Personalized Transparent On-Device Graph Reasoning
- arxiv url: http://arxiv.org/abs/2602.15553v1
- Date: Tue, 17 Feb 2026 12:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.069017
- Title: RUVA: Personalized Transparent On-Device Graph Reasoning
- Title(参考訳): RUVA: パーソナライズされた透明なオンデバイスグラフ推論
- Authors: Gabriele Conte, Alessio Mattiace, Gianni Carmosino, Potito Aghilar, Giovanni Servedio, Francesco Musicco, Vito Walter Anelli, Tommaso Di Noia, Francesco Maria Donini,
- Abstract要約: 本稿では,Human-in-the-Loop Memory Curation用に設計された最初のGlass BoxアーキテクチャであるRuvaを提案する。
RuvaはPersonal AIをPersonal Knowledge Graphに置き、ユーザーはAIが知っていることを検査し、特定の事実の正確なリアクションを実行することができる。
プロジェクトとデモビデオはhttp://sisinf00.poliba.it/ruva/.comで公開されている。
- 参考スコア(独自算出の注目度): 9.582176201200497
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The Personal AI landscape is currently dominated by "Black Box" Retrieval-Augmented Generation. While standard vector databases offer statistical matching, they suffer from a fundamental lack of accountability: when an AI hallucinates or retrieves sensitive data, the user cannot inspect the cause nor correct the error. Worse, "deleting" a concept from a vector space is mathematically imprecise, leaving behind probabilistic "ghosts" that violate true privacy. We propose Ruva, the first "Glass Box" architecture designed for Human-in-the-Loop Memory Curation. Ruva grounds Personal AI in a Personal Knowledge Graph, enabling users to inspect what the AI knows and to perform precise redaction of specific facts. By shifting the paradigm from Vector Matching to Graph Reasoning, Ruva ensures the "Right to be Forgotten." Users are the editors of their own lives; Ruva hands them the pen. The project and the demo video are available at http://sisinf00.poliba.it/ruva/.
- Abstract(参考訳): パーソナルAIのランドスケープは、現在"Black Box"レトリーバル拡張ジェネレーションが支配している。
標準的なベクトルデータベースは統計的マッチングを提供するが、それらは説明責任の根本的な欠如に悩まされる。AIが機密データを幻覚したり回収したりすると、ユーザは原因を検査したり、エラーを訂正することができない。
さらに悪いことに、ベクトル空間から概念を削除することは数学的に不正確であり、真のプライバシーを侵害する確率的な「幽霊」を残している。
本稿では,Human-in-the-Loop Memory Curation用に設計された最初のGlass BoxアーキテクチャであるRuvaを提案する。
RuvaはPersonal AIをPersonal Knowledge Graphに置き、ユーザーはAIが知っていることを検査し、特定の事実の正確なリアクションを実行することができる。
Vector MatchingからGraph Reasoningにパラダイムをシフトすることで、Ruvaは"Right to be Forgotten"を保証している。
ユーザーは自分の人生の編集者だ。
プロジェクトとデモビデオはhttp://sisinf00.poliba.it/ruva/.comで公開されている。
関連論文リスト
- PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory [56.81126490418336]
パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
論文 参考訳(メタデータ) (2025-12-07T06:48:23Z) - "Don't forget to put the milk back!" Dataset for Enabling Embodied Agents to Detect Anomalous Situations [49.66220439673356]
私たちは、SafetyDetectと呼ばれる新しいデータセットを作成しました。
SafetyDetectデータセットは1000の異常なホームシーンで構成されている。
提案手法は,シーンのグラフ表現とシーン内のオブジェクト間の関係の両方とともに,大規模言語モデル(LLM)を利用する。
論文 参考訳(メタデータ) (2024-04-12T21:56:21Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Who will stay? Using Deep Learning to predict engagement of citizen
scientists [79.9502177222504]
我々は,スウェーデンの海洋プロジェクトにおける市民科学者の関与を予測するために,ディープニューラルネットワークモデルを構築した。
結果に基づいて、将来のセッションでアノテータがアクティブになるかどうかを予測することができる。
私たちのモデルは、Deep Neural Networksの使用とボランティアアノテーションのシーケンスにあります。
論文 参考訳(メタデータ) (2022-04-28T13:27:21Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。