分享一个朋友的人工智能教程。零基础!通俗易懂!风趣幽默!还带黄段子!大家可以看看是否对自己有帮助:点击打开
docker/kubernetes入门视频教程
全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程
梯度下降法算法详情参考:https://www.cnblogs.com/pinard/p/5970503.html
随机梯度下降(SGD) 是一种简单但又非常高效的方法,主要用于凸损失函数下线性分类器的判别式学习,例如(线性) 支持向量机 和 Logistic 回归 。
Stochastic Gradient Descent (随机梯度下降法)的优势:
高效。
易于实现 (有大量优化代码的机会)。
Stochastic Gradient Descent (随机梯度下降法)的劣势:
SGD 需要一些超参数,例如 regularization (正则化)参数和 number of iterations (迭代次数)。
SGD 对 feature scaling