論文の概要: The Right to Be Remembered: Preserving Maximally Truthful Digital Memory in the Age of AI
- arxiv url: http://arxiv.org/abs/2510.16206v1
- Date: Fri, 17 Oct 2025 20:38:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.89642
- Title: The Right to Be Remembered: Preserving Maximally Truthful Digital Memory in the Age of AI
- Title(参考訳): AI時代のデジタル記憶を最大限保存する権利
- Authors: Alex Zhavoronkov, Dominika Wilczok, Roman Yampolskiy,
- Abstract要約: 大規模言語モデル(LLM)は、複数の視点をひとつの回答に分解することで、その効果を増幅することができる。
ある物語、個人または集団は不均等に抑圧されうるが、他の物語は不均等に抑圧される。
本稿では,AIによる情報消去のリスクを最小限に抑えたRTBR(Right To Be Remembered)の概念を提案する。
- 参考スコア(独自算出の注目度): 3.527046810232699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since the rapid expansion of large language models (LLMs), people have begun to rely on them for information retrieval. While traditional search engines display ranked lists of sources shaped by search engine optimization (SEO), advertising, and personalization, LLMs typically provide a synthesized response that feels singular and authoritative. While both approaches carry risks of bias and omission, LLMs may amplify the effect by collapsing multiple perspectives into one answer, reducing users ability or inclination to compare alternatives. This concentrates power over information in a few LLM vendors whose systems effectively shape what is remembered and what is overlooked. As a result, certain narratives, individuals or groups, may be disproportionately suppressed, while others are disproportionately elevated. Over time, this creates a new threat: the gradual erasure of those with limited digital presence, and the amplification of those already prominent, reshaping collective memory.To address these concerns, this paper presents a concept of the Right To Be Remembered (RTBR) which encompasses minimizing the risk of AI-driven information omission, embracing the right of fair treatment, while ensuring that the generated content would be maximally truthful.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な拡張以来、人々は情報検索にそれらを頼り始めている。
従来の検索エンジンは、検索エンジン最適化(SEO)、広告、パーソナライゼーションによって形作られたソースのリストを表示するが、LLMは典型的には独特で権威的な応答を提供する。
どちらのアプローチもバイアスや欠落のリスクを負うが、LCMは複数の視点をひとつの回答に分解することで効果を増幅し、代替手段を比較するためにユーザ能力や傾向を低下させる。
これは、記憶されているものや見過ごされているものを効果的に形作るいくつかのLLMベンダーにおける、情報に対するパワーを集中させる。
その結果、特定の物語、個人または集団は不均等に抑圧され、他の物語は不均等に抑圧される。
こうした懸念に対処するため、本稿では、AIによる情報消去のリスクを最小限に抑えつつ、公平な処理の権利を受け入れつつ、生成したコンテンツが極端に真実であることを保証しながら、AIによる情報消去のリスクを最小限に抑える、権利を思い出す(RTBR)という概念を提示する。
関連論文リスト
- LLM Unlearning on Noisy Forget Sets: A Study of Incomplete, Rewritten, and Watermarked Data [69.5099112089508]
大規模言語モデル(LLM)は、顕著な生成能力を示すが、機密データを記憶することで倫理的およびセキュリティ上の懸念を引き起こす。
この研究は、ノイズのある忘れセットと呼ばれる、摂動的または低忠実な忘れデータの下での未学習に関する最初の研究を提示する。
コアセマンティック信号が保存されている場合、未学習は摂動に対して驚くほど堅牢である。
論文 参考訳(メタデータ) (2025-10-10T05:10:49Z) - How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - Web Intellectual Property at Risk: Preventing Unauthorized Real-Time Retrieval by Large Language Models [49.270849415269936]
本稿では,Webコンテンツ作成者に対して,不正な抽出と再配布からWebベースのIPを保護するための新しいフレームワークを提案する。
提案手法はモチベーションの原則に従い,難解なブラックボックス最適化問題に効果的に対処する。
論文 参考訳(メタデータ) (2025-05-19T03:14:08Z) - AI-native Memory: A Pathway from LLMs Towards AGI [25.19572633670963]
大規模言語モデル(LLM)は、人工知能(AGI)の火花で世界を実証した。
我々は,メモリ統合によるLLMからAGIへの経路を構想する。
中間段階として、メモリは自然言語記述の形式になる可能性が高い。
論文 参考訳(メタデータ) (2024-06-26T12:51:37Z) - Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - Self-Debiasing Large Language Models: Zero-Shot Recognition and
Reduction of Stereotypes [73.12947922129261]
ステレオタイピングを減らすために,大規模言語モデルのゼロショット機能を活用している。
自己嫌悪は、9つの異なる社会集団におけるステレオタイピングの度合いを著しく低下させることが示される。
この研究が、バイアス軽減のための他のゼロショット技術に関する調査をオープンにすることを願っている。
論文 参考訳(メタデータ) (2024-02-03T01:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。