numpy.std()求标准差的时候默认是除以n的,即是有偏的,np.std无偏样本标准差方式为加入参数
numpy.std() 求标准差的时候默认是除以 n 的,即是有偏的,np.std无偏样本标准差方式为加入参数 ddof = 1;
pandas.std() 默认是除以n-1 的,即是无偏的,如果想和numpy.std() 一样有偏,需要加上参数ddof=0 ,即pandas.std(ddof=0) ;DataFrame的describe()中就包含有std();
demo:
>>> a
array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9])
>>> np.std(a, ddof = 1)
3.0276503540974917
>>> np.sqrt(((a - np.mean(a)) ** 2).sum() / (a.size - 1))
3.0276503540974917
>>> np.sqrt(( a.var() * a.size) / (a.size - 1))
3.0276503540974917
PS:numpy中标准差std的神坑
我们用Matlab作为对比。计算标准差,得到:
>> std([1,2,3])
ans =
1
然而在numpy中:
>>> np.std([1,2,3])
0.81649658092772603
什么鬼!这么简单的都能出错?原因在于,np.std有这么一个参数:
ddof : int, optional Means Delta Degrees of Freedom. The divisor used in calculations is N - ddof, where N represents the number of elements. By default ddof is zero.
因此,想要正确调用,必须使ddof=1:
>>> np.std([1,2,3], ddof=1)
1.0
而且,这一特性还影响到了许多基于numpy的包。比如scikit-learn里的StandardScaler。想要正确调用,只能自己手动设置参数:
ss = StandardScaler()
ss.mean_ = np.mean(X, axis=0)
ss.scale_ = np.std(X, axis=0, ddof=1)
X_norm = ss.transform(X)
当X数据量较大时无所谓,当X数据量较小时则要尤为注意。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持脚本之家。
python 标准差