声明: 本文由DataScience原创发表, 转载请注明本文链接mlln.cn, 并在文后留言
转载
.
本文代码运行环境:
- windows10
- python3.6
- jupyter notebook
- tensorflow 1.x
position-encoding
这是用词向量计算句子向量的一种算法, 在End-to-end Memory Network这篇论文中被提出来。在这篇论文中比较了另一种计算句子向量的模型–词袋模型, 下面我们分别来说一下这两种方法。
词袋模型
假设我们用$x_{ij}$
表示第i个句子的第j个词, 一个句子的所有词可以表示为$x_i = \{x_{i1},x_{i2},...,x_{ij} \}$
,嵌入每个单词并对得到的向量求和:$$ m_i = \sum x_{ij} $$
1 | import numpy as np |
或者我在其他论文里见过别人这样做, 但是我还没搞清楚原因, 如果你知道, 请留言告诉我。
1 |
|
参考文献
Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, and Rob Fergus. 2015. End-To-End Memory Networks. In Advances in Neural Information Processing Systems 28, C Cortes, N D Lawrence, D D Lee, M Sugiyama, and R Garnett (Eds.). Curran Associates, Inc., 2440–2448.
注意
本文由jupyter notebook转换而来, 您可以在这里下载notebook
统计咨询请加QQ 2726725926, 微信 mllncn, SPSS统计咨询是收费的
微博上@mlln-cn可以向我免费题问
请记住我的网址: mlln.cn 或者 jupyter.cn