加入收藏 | 设为首页 | 会员中心 | 我要投稿 南平站长网 (https://www.0599zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长学院 > Asp教程 > 正文

ASP 变量 指数滑动平均(EMA:exponential moving average)[转

发布时间:2022-11-16 16:02:17 所属栏目:Asp教程 来源:转载
导读: 摘自:cnblogs.com/wuliytTaotao/p/9479958.html
参考:investopedia.com/terms/e/ema.asp
investopedia.com/terms/s/sma.asp
1. 用滑动平均估计局部均值
滑动平均(exponential moving ave

摘自:cnblogs.com/wuliytTaotao/p/9479958.html

参考:investopedia.com/terms/e/ema.asp

investopedia.com/terms/s/sma.asp

1. 用滑动平均估计局部均值

滑动平均(exponential moving average),或者叫做指数加权平均(exponentially weighted moving average),可以用来估计变量的局部均值,使得变量的更新与一段时间内的历史取值有关。

变量v在t时刻记为 vt,θt 为变量 v 在 t 时刻的取值,即在不使用滑动平均模型时 vt=θt,在使用滑动平均模型后,vt的更新公式如下:

vt=β?vt?1+(1?β)?θt (1)

上式中,β∈[0,1)。β=0相当于没有使用滑动平均。假设起始 v0=0,β=0.9,之后每个时刻,依次对变量 v进行赋值,不使用滑动平均和使用滑动平均结果如下:

ASP 变量_asp 变量赋值_asp include 变量

表 1 三种变量更新方式

asp 变量赋值_asp include 变量_ASP 变量

图 1:三种变量更新方式

Andrew Ng在Course 2 Improving Deep Neural Networks中讲到,t时刻变量 v 的滑动平均值大致等于过去 1/(1?β) 个时刻 θ 值的平均。这个结论在滑动平均起始时相差比较大,所以有了Bias correction,将 vt 除以 (1?βt)修正对均值的估计。

加入了Bias correction后,vt和 v_biasedt的更新公式如下:

vt=β?vt?1+(1?β)?θtv_biasedt=vt1?βt (2)

t越大,1?βt 越接近 1,则公式(1)和(2)得到的结果 (vt 和 v_biasedt)将越来越近,如图 1 所示。

当 β越大时,滑动平均得到的值越和 θ 的历史值相关。如果 β=0.9,则大致等于过去 10 个 θ 值的平均;如果 β=0.99ASP 变量,则大致等于过去 100 个 θ值的平均。

滑动平均的好处:占内存少,不需要保存过去10个或者100个历史 θ值,就能够估计其均值。(当然,滑动平均不如将历史值全保存下来计算均值准确,但后者占用更多内存和计算成本更高)。

2. TensorFlow中使用滑动平均来更新变量(参数)

滑动平均可以看作是变量的过去一段时间取值的均值,相比对变量直接赋值而言,滑动平均得到的值在图像上更加平缓光滑,抖动性更小,不会因为某次的异常取值而使得滑动平均值波动很大,如图 1所示。

TensorFlow 提供了 tf.train.ExponentialMovingAverage 来实现滑动平均。在初始化 ExponentialMovingAverage 时,需要提供一个衰减率(decay),即公式(1)(2)中的 β

。这个衰减率将用于控制模型的更新速度。ExponentialMovingAverage 对每一个变量(variable)会维护一个影子变量(shadow_variable),这个影子变量的初始值就是相应变量的初始值,而每次运行变量更新时,影子变量的值会更新为:

shadow_variable=decay?shadow_variable+(1?decay)?variable (3)

公式(3)中的 shadow_variable 就是公式(1)中的 vt,公式(3)中的 variable 就是公式(1)中的 θt,公式(3)中的 decay 就是公式(1)中的 β。

公式(3)中,decay 决定了影子变量的更新速度,decay 越大影子变量越趋于稳定。在实际运用中,decay一般会设成非常接近 1 的数(比如0.999或0.9999)。为了使得影子变量在训练前期可以更新更快,ExponentialMovingAverage 还提供了 num_updates 参数动态设置 decay 的大小。如果在初始化 ExponentialMovingAverage 时提供了 num_updates 参数,那么每次使用的衰减率将是:

min{decay,1+num_updates10+num_updates} (4)

这一点其实和 Bias correction 很像。

TensorFlow 中使用 ExponentialMovingAverage 的例子:code

(如果 GitHub 无法加载 .ipynb 文件,则将 .ipynb 文件的 URL 复制到网站 nbviewer.jupyter.org/)

3. 滑动平均为什么在测试过程中被使用?

滑动平均可以使模型在测试数据上更健壮(robust)。“采用随机梯度下降算法训练神经网络时,使用滑动平均在很多应用中都可以在一定程度上提高最终模型在测试数据上的表现。”

对神经网络边的权重 weights 使用滑动平均,得到对应的影子变量 shadow_weights。在训练过程仍然使用原来不带滑动平均的权重 weights,不然无法得到 weights 下一步更新的值,又怎么求下一步 weights 的影子变量 shadow_weights。之后在测试过程中使用 shadow_weights 来代替 weights 作为神经网络边的权重,这样在测试数据上效果更好。因为 shadow_weights 的更新更加平滑,对于随机梯度下降而言,更平滑的更新说明不会偏离最优点很远;对于梯度下降 batch gradient decent,我感觉影子变量作用不大,因为梯度下降的方向已经是最优的了,loss 一定减小;对于 mini-batch gradient decent,可以尝试滑动平均,毕竟 mini-batch gradient decent 对参数的更新也存在抖动。

设decay=0.999,一个更直观的理解,在最后的 1000 次训练过程中,模型早已经训练完成,正处于抖动阶段,而滑动平均相当于将最后的 1000 次抖动进行了平均,这样得到的权重会更加 robust。

Python演示实例:

# -*- coding: utf-8 -*-
"""
Created on Sun Apr  8 22:16:57 2018
"""
import numpy as np
from matplotlib import pyplot as plt
#from scipy.signal import medfilt
#%% Generage data
N = 10000
w = 501 # median filter window size
sigma = 0.1
data = np.random.random(N)*sigma + 1
#data[0] += sigma # make the first point biased
break_idx = int(N/2)
data[break_idx] += -sigma
data[break_idx:] += 1
#%% median filter
def medfilt(data, w):
    # one-sided median filter for 1-D array
    # w - windows size, needs to be odd
    
    assert(w%2 == 1)
    L = len(data)
    data_filtered = np.zeros(L)
    
    startp = 0
    endp = 0
    for i in range(L):
        if i - w + 1 < 0:
            startp = 0
        else:
            startp = i - w + 1
        endp = i+1
        data_filtered[i] = np.median(data[startp:endp])
    return data_filtered
    
#%% Exponentially weighted average with bias correction
beta = 1 - 1.0/w
data_filtered = np.zeros(len(data) + 1)
data_filtered_corrected = np.copy(data_filtered)
bias_correction_idx = 0
data_filtered[0] = 0
for i in range(N):
    if (data[i] - data[i-1]) > 0.5:
        data_filtered[i+1] = 0 + (1 - beta) * data[i]
        bias_correction_idx = i
    else:
        data_filtered[i+1] = beta * data_filtered[i] + (1 - beta) * data[i]
    # bias correction    
    data_filtered_corrected[i+1] = data_filtered[i+1] / (1 - beta ** (i+1 - bias_correction_idx))
data_median = medfilt(data, w)
plt.plot(data, label = 'raw')
#plt.plot(data_filtered[1:], label = 'filtered')
plt.plot(data_filtered_corrected[1:], label = 'filtered corrected')
plt.plot(data_median, label = 'median filter')
plt.legend()
plt.show()

生成的图形如下:

asp 变量赋值_ASP 变量_asp include 变量

References

Course 2 Improving Deep Neural Networks by Andrew Ng

《TensorFlow实战Google深度学习框架》 4.4.3

(编辑:南平站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!