論文の概要: Collective Narrative Grounding: Community-Coordinated Data Contributions to Improve Local AI Systems
- arxiv url: http://arxiv.org/abs/2601.04201v1
- Date: Fri, 05 Dec 2025 15:44:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.599415
- Title: Collective Narrative Grounding: Community-Coordinated Data Contributions to Improve Local AI Systems
- Title(参考訳): 集合的ナラティブグラウンド:地域AIシステムを改善するためのコミュニティコーディネートデータコントリビューション
- Authors: Zihan Gao, Mohsin Y. K. Yousufi, Jacob Thebault-Spieker,
- Abstract要約: 大規模言語モデル(LLM)の問合せシステムは、しばしばコミュニティ固有のクエリーで失敗する。
本稿では,コミュニティストーリーを構造化された物語単位に変換する参加型プロトコルである,集合的ナラティブグラウンド(Collective Narrative Grounding)を提案する。
- 参考スコア(独自算出の注目度): 3.251276843768091
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language model (LLM) question-answering systems often fail on community-specific queries, creating "knowledge blind spots" that marginalize local voices and reinforce epistemic injustice. We present Collective Narrative Grounding, a participatory protocol that transforms community stories into structured narrative units and integrates them into AI systems under community governance. Learning from three participatory mapping workshops with N=24 community members, we designed elicitation methods and a schema that retain narrative richness while enabling entity, time, and place extraction, validation, and provenance control. To scope the problem, we audit a county-level benchmark of 14,782 local information QA pairs, where factual gaps, cultural misunderstandings, geographic confusions, and temporal misalignments account for 76.7% of errors. On a participatory QA set derived from our workshops, a state-of-the-art LLM answered fewer than 21% of questions correctly without added context, underscoring the need for local grounding. The missing facts often appear in the collected narratives, suggesting a direct path to closing the dominant error modes for narrative items. Beyond the protocol and pilot, we articulate key design tensions, such as representation and power, governance and control, and privacy and consent, providing concrete requirements for retrieval-first, provenance-visible, locally governed QA systems. Together, our taxonomy, protocol, and participatory evaluation offer a rigorous foundation for building community-grounded AI that better answers local questions.
- Abstract(参考訳): 大規模言語モデル(LLM)の問合せシステムは、しばしばコミュニティ固有のクエリーで失敗し、ローカルな声を疎外し、てんかんの不正を補強する"知識の盲点"を作り出す。
コミュニティストーリーを構造化された物語単位に変換し、それらをコミュニティガバナンスの下でAIシステムに統合する参加型プロトコルである、集合的ナラティブグラウンド(Collective Narrative Grounding)を提案する。
N=24のコミュニティメンバーによる3つの参加型マッピングワークショップから学び、私たちは、エンティティ、時間、場所の抽出、バリデーション、証明制御を可能にしながら、物語の豊かさを保ちながら、導入方法とスキーマを設計した。
そこでは, 事実的ギャップ, 文化的誤解, 地理的混乱, 時間的ミスアライメントが76.7%の誤りの原因となっている。
ワークショップから得られた参加型QAでは,局所的な接地の必要性が強調され,最先端のLCMがコンテキストを付加せずに正解率は21%未満であった。
失われた事実は、しばしば収集された物語の中に現れ、物語の項目において支配的なエラーモードを閉じる直接的な道のりを示唆している。
プロトコルとパイロット以外にも、表現とパワー、ガバナンスとコントロール、プライバシと同意といった重要な設計上の緊張を明確化し、検索ファーストで、証明可能な、ローカルに管理されたQAシステムに対して、具体的な要件を提供します。
私たちの分類学、プロトコル、参加型評価は、地域の質問に答えるコミュニティベースのAIを構築するための厳格な基盤を提供する。
関連論文リスト
- LocalBench: Benchmarking LLMs on County-Level Local Knowledge and Reasoning [9.319308493696893]
大規模言語モデル (LLM) は, マクロな地理的タスクにおいて広く評価されてきたが, 超局所的な知識を扱う能力はいまだによく理解されていない。
アメリカ合衆国全体での郡レベルの地域知識に基づいてLSMを評価するために設計された最初のベンチマークであるLocalBenchを紹介する。
LocalBenchを用いて、クローズドブックとWeb拡張設定の両方で、13の最先端LCMを評価した。
論文 参考訳(メタデータ) (2025-11-13T16:26:13Z) - InteGround: On the Evaluation of Verification and Retrieval Planning in Integrative Grounding [51.80327078402434]
仮説クエリをサポートするために、複数の独立したエビデンスを検索し、検証するという課題である。
まず,LLMは冗長な証拠に対して頑健であるのに対して,情報の不完全な場合,内部知識を合理的に活用する傾向にある。
ノイズ導入による非方向性計画が性能を低下させるのに対して, 前提推論は論理的制約のため, 有望なアプローチとして現れる。
論文 参考訳(メタデータ) (2025-09-20T04:48:24Z) - From Leiden to Pleasure Island: The Constant Potts Model for Community Detection as a Hedonic Game [0.0254890465057467]
本稿では,ネットワークを不連続なコミュニティに分割するための定数ポットモデル(CPM)のゲーム理論的視点を示す。
その効率性、堅牢性、正確性を強調します。
部分的地平情報を用いて初期分割をブートストラップするコミュニティトラッキングシナリオにおいて,ロバスト分割は地平情報の回復において高い精度が得られることを示す。
論文 参考訳(メタデータ) (2025-09-04T02:50:54Z) - Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - Retrieval-Augmented Generation with Conflicting Evidence [57.66282463340297]
大規模言語モデル (LLM) エージェントは、応答の事実性を改善するために、検索強化世代 (RAG) をますます採用している。
実際には、これらのシステムは曖昧なユーザクエリを処理し、複数のソースからの情報に衝突する可能性がある。
RAMDocs(Retrieval with Ambiguity and Misinformation in Documents)は,ユーザクエリのエビデンスを矛盾させるような,複雑で現実的なシナリオをシミュレートする新しいデータセットである。
論文 参考訳(メタデータ) (2025-04-17T16:46:11Z) - A Glitch in the Matrix? Locating and Detecting Language Model Grounding with Fakepedia [57.31074448586854]
大規模言語モデル(LLM)は、そのコンテキストで提供される新しい情報を引き出すという印象的な能力を持つ。
しかし、この文脈的基盤のメカニズムはいまだに不明である。
本稿では,Fakepedia を用いたグラウンドディング能力の研究手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T17:35:42Z) - Distributed Q-Learning with State Tracking for Multi-agent Networked
Control [61.63442612938345]
本稿では,LQR(Linear Quadratic Regulator)のマルチエージェントネットワークにおける分散Q-ラーニングについて検討する。
エージェントに最適なコントローラを設計するための状態追跡(ST)ベースのQ-ラーニングアルゴリズムを考案する。
論文 参考訳(メタデータ) (2020-12-22T22:03:49Z) - Population Mapping in Informal Settlements with High-Resolution
Satellite Imagery and Equitable Ground-Truth [1.4414055798999759]
低所得都市部における密集集落の人口推定のための一般化可能な枠組みを提案する。
我々は,地域コミュニティと連携して収集される等質な地平データを用いている。
本研究では,フレキシブルでカスタマイズ可能な空間分解能を実現するグリッド型人口推定モデルを提案する。
論文 参考訳(メタデータ) (2020-09-17T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。