論文の概要: Why Isn't Relational Learning Taking Over the World?
- arxiv url: http://arxiv.org/abs/2507.13558v1
- Date: Thu, 17 Jul 2025 22:32:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.1485
- Title: Why Isn't Relational Learning Taking Over the World?
- Title(参考訳): なぜリレーショナルラーニングが世界を席巻しないのか?
- Authors: David Poole,
- Abstract要約: リレーショナル・ラーニング(リレーショナル・ラーニング)は、リレーショナル・ラーニング(リレーショナル・ラーニング)が世界を支配するものではない。
世界中の(価値ある)データはすべて、テキストと画像の点である。
- 参考スコア(独自算出の注目度): 4.3512163406552
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI seems to be taking over the world with systems that model pixels, words, and phonemes. The world is arguably made up, not of pixels, words, and phonemes but of entities (objects, things, including events) with properties and relations among them. Surely we should model these, not the perception or description of them. You might suspect that concentrating on modeling words and pixels is because all of the (valuable) data in the world is in terms of text and images. If you look into almost any company you will find their most valuable data is in spreadsheets, databases and other relational formats. These are not the form that are studied in introductory machine learning, but are full of product numbers, student numbers, transaction numbers and other identifiers that can't be interpreted naively as numbers. The field that studies this sort of data has various names including relational learning, statistical relational AI, and many others. This paper explains why relational learning is not taking over the world -- except in a few cases with restricted relations -- and what needs to be done to bring it to it's rightful prominence.
- Abstract(参考訳): AIは、ピクセル、単語、音素をモデル化するシステムで世界を席巻しているようだ。
世界は、ピクセル、単語、音素ではなく、その性質と関係を持った実体(物、出来事を含むもの)で構成されている。
もちろん、それらに対する認識や説明ではなく、これらをモデル化するべきです。
言葉とピクセルのモデリングに集中しているのは、世界中の(価値のある)データがすべてテキストと画像であるからだ、と疑う人もいるだろう。
どのような企業でも、最も価値のあるデータはスプレッドシート、データベース、その他のリレーショナルフォーマットです。
これらは、導入機械学習で研究されている形式ではなく、製品番号、学生番号、トランザクション番号、その他の識別子でいっぱいであり、数字として否定的に解釈できない。
この種のデータを研究する分野には、リレーショナル学習、統計リレーショナルAIなど、さまざまな名前がある。
この記事では、リレーショナル・ラーニングが(限定的な関係を持ついくつかのケースを除いて)世界を乗っ取らない理由と、それを実現するためには何をする必要があるのかを説明します。
関連論文リスト
- What is a Number, That a Large Language Model May Know It? [15.331426297060094]
数字は、人間が周囲の世界をどのように表現し、表現するかの基本的な部分である。
大規模言語モデルは、テキスト入力から番号が何であるかを学ばなければならない。
LLMは文字列や数値表現をブレンドした表現空間を学習する。
論文 参考訳(メタデータ) (2025-02-03T17:17:26Z) - Elements of World Knowledge (EWoK): A Cognition-Inspired Framework for Evaluating Basic World Knowledge in Language Models [51.891804790725686]
要素・オブ・ワールド・ナレッジ(Elements of World Knowledge, EWoK)は、言語モデルによる世界モデリングの基礎となる概念的知識の理解を評価するためのフレームワークである。
EWoK-core-1.0は世界11の知識領域をカバーする4,374項目のデータセットである。
すべてのテストされたモデルは人間よりもパフォーマンスが悪く、その結果はドメインによって大きく異なる。
論文 参考訳(メタデータ) (2024-05-15T17:19:42Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - VER: Unifying Verbalizing Entities and Relations [30.327166864967918]
VER: エンティティとリレーショナルのバーバリゼーションのための統一モデルを提案する。
本稿では,任意のエンティティやエンティティを入力として取り込んで,エンティティや関係を表現する文を生成するシステムの構築を試みる。
論文 参考訳(メタデータ) (2022-11-20T21:50:33Z) - Semantic sentence similarity: size does not always matter [12.001264420453923]
我々は、よく知られた意味的テキスト類似性データベースの合成および自然な音声バージョンを作成している。
我々のVGSモデルは人間の意味的類似性とよく相関する埋め込みを生成する。
小さな画像キャプチャーデータベースでトレーニングされたモデルは、はるかに大きなデータベースでトレーニングされた2つのモデルより優れている。
論文 参考訳(メタデータ) (2021-06-16T09:22:58Z) - PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D
World [86.21137454228848]
我々はPIGLeTを物理力学モデルと別言語モデルに分類する。
PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果を文字通りの記号表現を通して伝達する。
80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。
論文 参考訳(メタデータ) (2021-06-01T02:32:12Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - When is Memorization of Irrelevant Training Data Necessary for
High-Accuracy Learning? [53.523017945443115]
我々は,十分な精度のトレーニングアルゴリズムが,予測モデルにおいて,そのトレーニング例の大規模サブセットに関する情報を本質的にすべてエンコードしなければならない自然予測問題を記述する。
私たちの結果は、トレーニングアルゴリズムや学習に使用されるモデルのクラスに依存しません。
論文 参考訳(メタデータ) (2020-12-11T15:25:14Z) - Interpreting convolutional networks trained on textual data [0.0]
我々は,テキストデータに基づく畳み込みモデルを訓練し,そのフィルタ値を用いてモデルのグローバル論理を解析する。
モデルロジックのコーパスで最も重要な単語を見つけ、残りの単語を取り除きます。
5%以上の重要な単語でトレーニングされた新しいモデルは、トレーニング時間を半分以上削減しながら、オリジナルのモデルと同じパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2020-10-20T20:12:05Z) - Hidden Footprints: Learning Contextual Walkability from 3D Human Trails [70.01257397390361]
現在のデータセットは、人々がどこにいるか、どこにいるかを教えてくれません。
まず、画像間で人の観察を伝播させ、3D情報を利用して、私たちが「隠れ足跡」と呼ぶものを作成することで、有効なラベル付き歩行可能領域の集合を拡大する。
このようなスパースラベルのために設計されたトレーニング戦略を考案し、クラスバランスの分類損失と文脈逆転損失を組み合わせた。
論文 参考訳(メタデータ) (2020-08-19T23:19:08Z) - Rethinking Class Relations: Absolute-relative Supervised and
Unsupervised Few-shot Learning [157.62595449130973]
本稿では,現在の数ショット学習法における単純化型クラスモデリングの基本的問題について検討する。
本稿では,ラベル情報をフル活用して画像表現を洗練するための,絶対相対学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-01-12T12:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。