6-6 随机梯度下降
常规的梯度下降法,又叫批量梯度下降法,Batch Gradient Descent 
问题:当样本数m很大时会非常耗时
解决方法:每次只对其中一个样本做计算

把去掉m后计算的公式作为搜索的方向。 由于不能保证这种方法计算得到的方向一定是损失最小的方向,甚至不能保证一定是损失函数减小的方向。也不能找到最小值的位置。 但仍然能到函数的最小值附近。 如果m非常大,可以用一定的精度来换时间。

在随机梯度下降法过程中,学习率很重要。
如果学习率取固定值,很有可以到了最小值附近后又跳出去了。
学习率应逐渐递减。(模拟退火的思想)
通常a取5,b取50
测试数据
批量梯度下降法
算法
测试性能
耗时:2s theta = array([3.00456203, 3.98777265])
随机梯度下降法
算法
测试性能
耗时:471ms array([2.94954458, 3.95898273])
时间大幅度减少而结果和批量梯度下降法差不多。 当m特别大时,可以牺牲一定的精度来换取时间。
Last updated