推荐给初学LSTM或者懂个大概却不完全懂的人:http://blog.csdn.net/u014422406/article/details/52806430
https://www.zhihu.com/question/24627666
核函数:https://www.zhihu.com/question/24627666(第二个回答佳)
核函数的作用就是隐含着一个从低维空间到高维空间的映射,而这个映射可以把低维空间中线性不可分的两类点变成线性可分的。
在机器学习中常用的核函数,一般有这么几类,也就是LibSVM中自带的这几类:
1) 线性 2) 多项式 3) Radial basis function 4) Sigmoid
softmax:https://www.zhihu.com/question/23765351
sigmoid将一个real value映射到(0,1)区间(也可以是(-1,1)),这样可以用来做二分类。
softmax把一个k维的real value向量(a1,a2,a3,a4….)映射成一个(b1,b2,b3,b4….)其中bi是一个0-1的常数,然后可以根据bi的大小来进行多分类的任务,如取权重最大的一维。