Distributional Vector VS. Distributed Vector

曾经终败给现在 2022-09-25 06:21 218阅读 0赞

Distributional Vector VS. Distributed Vector

  • 异同点

    • 对于自然语言

      • 相同点
  1. * 都是基于distribution思想
  2. * 使用相同的语料库
  3. * Distributional models(BOW,LSI,LDA)
  4. * 共现在同一文本区域中词(如同一语句)相关,在语料中的共现语句越多,越相关
  5. * 使用共现语句个数构建词与词(上下文)的PMI/PPMI矩阵(高维稀疏矩阵),然后进行SVD得到每个词的低维稠密向量(隐向量)
  6. * Distributed models(NPLM,LBL,Word2vec,Glove)
  7. * 在相同上下文中出现的词具有相关性,相同的上下文在语料库中越多,越相关,不要求同时出现
  8. * 思想来源于深度学习(Inspired by deep learning), 使用预测代替共现计数
  9. * Example
  10. A dog is in the room.
  11. A cat is in the room.
  12. dog room Distributional
  13. dog cat Distributed
  14. * 思想区别
  15. * Distributional思想
  16. 同一个语境中(上下文)出现的词相关。
  17. 它是一种横向思想,如句子“今晚的天空有很多星星”,“天空”与“星星”横向相关。
  18. * Distributed思想
  19. 相似的语境下(上下文)的词相关。
  20. 这里相似的语境可以是同一个句子,也可以是不同的语句(纵向)。
  21. 它包含一种纵向思想,如句子“今晚的天空有很多星星”,“今晚的天空有月亮”,“星星”与“月亮”纵向相关。
  22. * 方法区别
  23. * Distributional使用隐矩阵分解(Implicit Matrix Factorization)
  24. * Distributed使用神经网络词嵌入(Neural word embedding)
  25. * Distributional使用共现计数来构建原始矩阵
  26. * Distributed通过神经网络来进行上下文词预测
  27. * 对于关系网络
  28. * Distributional
  29. * 在同一的路径中的点相关(取决于路径长度,最简单的便是只考虑1邻居)
  30. * 如果使用词的共现构建网络,那么有边连接的点相关
  31. * 或者使用图的邻接矩阵构建原始矩阵,然后进行矩阵分解
  32. * Distributed
  33. * 不仅考虑邻接的点相关性
  34. * 还考虑了拥有共同邻居的不直接相连的点的相关
  35. 即如果某两个点,其虽然不直接相连,但是它们拥有相同的邻居,或者相同的邻居点很多,那么它们也具有相似性
  36. * 可以使用deepwalk来对图中的点来仿造语句(词序列)来构建图节点序列

发表评论

表情:
评论列表 (有 0 条评论,218人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Java ArrayList vs. Vector

    ArrayList 和 Vector 的比较是面试中一个常见的问题,要想回答得好,还需要下点工夫,本文来总结下它们之间的相似以及区别。 相似点 先看下相似点。首先我们都

    相关 vectorvector>排序

    已知:每类奖励下面不止四种,是不确定数量(至少一种)。要求有可领取奖励的块上移到顶,如果有多个可领奖励块,它们的前后顺序和原来一样。这里每个标题栏和可领取块都是一张map里面的