古典的および最先端の埋め込みにおける構成性の定量化
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19332v1発表タイプ:クロス
要旨:言語モデルが新規表現に正しく一般化するためには、正当化される場合に構成的意味を利用することが不可欠である。「pelp」が何か分からなくても、数の知識を用いて「ten pelps」の方が「two pelps」よりも多くのpelpを含むことを理解できる。Word2vecなどの静的単語埋め込みは、構成性について強く、実際には過剰な主張を行った。しかし、最先端の生成型Transformerモデルやグラフモデルは、文脈による意味の変化に事実上の制限を設けないという点で、反対方向に極端である。加法的な構成性を定量化するために、(i)正準相関分析を用いて既知のエンティティ属性とその埋め込み間の線形性を測定し、(ii)未知の属性組み合わせの埋め込みを再構成し、L2損失、コサイン類似度、検索精度などの再構成メトリックをチェックする二段階の一般化評価を定式化する。これらのメトリックは、線形合成が破綻する失敗事例も捉える。文、知識グラフ、単語埋め込みを評価し、すべての層とトレーニング段階にわたる構成性を追跡する。より強い構成シグナルは、様々なデータモダリティにおいて、トレーニングの後期段階で、そしてTransformerベースモデルのより深い層で観測され、最上位層では低下する。コードはhttps://github.com/Zhijin-Guo1/quantifying-compositionalityで入手可能。
原文(英語)を表示
Title (EN): Quantifying Compositionality of Classic and State-of-the-Art Embeddings
arXiv:2509.19332v1 Announce Type: cross
Abstract: For language models to generalize correctly to novel expressions, it is critical that they exploit access compositional meanings when this is justified. Even if we don’t know what a “pelp” is, we can use our knowledge of numbers to understand that “ten pelps” makes more pelps than “two pelps”. Static word embeddings such as Word2vec made strong, indeed excessive, claims about compositionality. The SOTA generative, transformer models and graph models, however, go too far in the other direction by providing no real limits on shifts in meaning due to context. To quantify the additive compositionality, we formalize a two-step, generalized evaluation that (i) measures the linearity between known entity attributes and their embeddings via canonical correlation analysis, and (ii) evaluates additive generalization by reconstructing embeddings for unseen attribute combinations and checking reconstruction metrics such as L2 loss, cosine similarity, and retrieval accuracy. These metrics also capture failure cases where linear composition breaks down. Sentences, knowledge graphs, and word embeddings are evaluated and tracked the compositionality across all layers and training stages. Stronger compositional signals are observed in later training stages across data modalities, and in deeper layers of the transformer-based model before a decline at the top layer. Code is available at https://github.com/Zhijin-Guo1/quantifying-compositionality.
Published: 2025-09-24 19:00 UTC