Saturday 18 November 2017

Gráfico De Ewma Média Móvel Ponderada Exponencialmente


Explorando a média ponderada ponderada exponencial A volatilidade é a medida mais comum de risco, mas vem em vários sabores. Em um artigo anterior, mostramos como calcular a volatilidade histórica simples. (Para ler este artigo, consulte Usando a volatilidade para medir o risco futuro.) Usamos os dados reais do estoque do Google para computar a volatilidade diária com base em 30 dias de dados de estoque. Neste artigo, melhoraremos a volatilidade simples e discutiremos a média móvel exponencialmente ponderada (EWMA). Histórico vs. Volatilidade implícita Primeiro, vamos colocar esta métrica em um pouco de perspectiva. Há duas abordagens gerais: volatilidade histórica e implícita (ou implícita). A abordagem histórica pressupõe que o passado é um prólogo que medimos a história na esperança de que ela seja preditiva. A volatilidade implícita, por outro lado, ignora a história que resolve pela volatilidade implícita nos preços de mercado. Espera que o mercado conheça melhor e que o preço de mercado contenha, mesmo que implicitamente, uma estimativa consensual da volatilidade. Se focarmos apenas as três abordagens históricas (à esquerda acima), elas têm duas etapas em comum: Calcular a série de retornos periódicos Aplicar um esquema de ponderação Primeiro, nós Calcular o retorno periódico. Isso é tipicamente uma série de retornos diários onde cada retorno é expresso em termos continuamente compostos. Para cada dia, tomamos o log natural da razão dos preços das ações (ou seja, preço hoje dividido pelo preço de ontem, e assim por diante). Isso produz uma série de retornos diários, de u i para u i-m. Dependendo de quantos dias (m dias) estamos medindo. Isso nos leva ao segundo passo: é aqui que as três abordagens diferem. No artigo anterior (Usando a Volatilidade para Avaliar o Risco Futuro), mostramos que, sob algumas simplificações aceitáveis, a variância simples é a média dos retornos quadrados: Note que isto soma cada um dos retornos periódicos e depois divide esse total pela Número de dias ou observações (m). Então, é realmente apenas uma média dos retornos periódicos quadrados. Dito de outra forma, cada retorno ao quadrado é dado um peso igual. Portanto, se alfa (a) é um fator de ponderação (especificamente, um 1m), então uma variância simples é algo como isto: O EWMA Melhora na Variância Simples A fraqueza desta abordagem é que todos os retornos ganham o mesmo peso. O retorno de ontem (muito recente) não tem mais influência na variância do que nos últimos meses. Esse problema é corrigido usando-se a média móvel exponencialmente ponderada (EWMA), na qual retornos mais recentes têm maior peso na variância. A média móvel exponencialmente ponderada (EWMA) introduz lambda. Que é chamado de parâmetro de suavização. Lambda deve ser inferior a um. Sob essa condição, em vez de pesos iguais, cada retorno ao quadrado é ponderado por um multiplicador da seguinte forma: Por exemplo, RiskMetrics TM, uma empresa de gestão de risco financeiro, tende a usar um lambda de 0,94 ou 94. Neste caso, o primeiro Mais recente) é ponderado por (1-0.94) (. 94) 0 6. O próximo retomo ao quadrado é simplesmente um lambda-múltiplo do peso anterior neste caso 6 multiplicado por 94 5.64. E o terceiro dia anterior peso é igual a (1-0,94) (0,94) 2 5,30. Esse é o significado de exponencial em EWMA: cada peso é um multiplicador constante (isto é, lambda, que deve ser menor que um) do peso dos dias anteriores. Isso garante uma variância que é ponderada ou tendenciosa em direção a dados mais recentes. (Para saber mais, consulte a Planilha do Excel para a Volatilidade do Google.) A diferença entre simplesmente volatilidade e EWMA para o Google é mostrada abaixo. A volatilidade simples pesa efetivamente cada retorno periódico em 0.196, como mostrado na coluna O (tivemos dois anos de dados diários sobre os preços das ações, ou seja, 509 retornos diários e 1509 0.196). Mas observe que a Coluna P atribui um peso de 6, então 5.64, então 5.3 e assim por diante. Essa é a única diferença entre a variância simples e EWMA. Lembre-se: Depois de somarmos toda a série (na coluna Q) temos a variância, que é o quadrado do desvio padrão. Se queremos a volatilidade, precisamos nos lembrar de tomar a raiz quadrada dessa variância. Sua significativa: A variância simples nos deu uma volatilidade diária de 2,4, mas a EWMA deu uma volatilidade diária de apenas 1,4 (veja a planilha para mais detalhes). Aparentemente, volatilidade Googles estabeleceu-se mais recentemente, portanto, uma variância simples pode ser artificialmente elevado. A variação de hoje é uma função da variação dos dias de Pior Você observará que nós necessitamos computar uma série longa de pesos exponencial declinando. Nós não vamos fazer a matemática aqui, mas uma das melhores características do EWMA é que a série inteira convenientemente reduz a uma fórmula recursiva: Recursivo significa que as referências de variância de hoje (ou seja, é uma função da variação de dias anteriores). Você pode encontrar esta fórmula na planilha também, e produz o mesmo resultado exato que o cálculo de longhand Diz: A variância de hoje (sob EWMA) iguala a variância de ontem (ponderada por lambda) mais o retorno ao quadrado de ontem (pesado por um lambda negativo). Observe como estamos apenas adicionando dois termos juntos: ontem variância ponderada e ontem ponderado, retorno ao quadrado. Mesmo assim, lambda é o nosso parâmetro de suavização. Um lambda mais alto (por exemplo, como o RiskMetrics 94) indica um declínio mais lento na série - em termos relativos, vamos ter mais pontos de dados na série e eles vão cair mais lentamente. Por outro lado, se reduzimos o lambda, indicamos maior decaimento: os pesos caem mais rapidamente e, como resultado direto da rápida decomposição, são usados ​​menos pontos de dados. (Na planilha, lambda é uma entrada, para que você possa experimentar com sua sensibilidade). Resumo A volatilidade é o desvio padrão instantâneo de um estoque ea métrica de risco mais comum. É também a raiz quadrada da variância. Podemos medir a variância historicamente ou implicitamente (volatilidade implícita). Ao medir historicamente, o método mais fácil é a variância simples. Mas a fraqueza com variância simples é todos os retornos obter o mesmo peso. Então, enfrentamos um trade-off clássico: sempre queremos mais dados, mas quanto mais dados tivermos, mais nosso cálculo será diluído por dados distantes (menos relevantes). A média móvel exponencialmente ponderada (EWMA) melhora a variância simples atribuindo pesos aos retornos periódicos. Ao fazer isso, podemos usar um grande tamanho de amostra, mas também dar maior peso a retornos mais recentes. (Para ver um tutorial de filme sobre este tópico, visite o Bionic Turtle.) O valor de mercado total do dólar de todas as ações em circulação de uma empresa. A capitalização de mercado é calculada pela multiplicação. Frexit curto para quotFrancês exitquot é um spin-off francês do termo Brexit, que surgiu quando o Reino Unido votou. Uma ordem colocada com um corretor que combina as características de ordem de parada com as de uma ordem de limite. Uma ordem de stop-limite será. Uma rodada de financiamento onde os investidores comprar ações de uma empresa com uma avaliação menor do que a avaliação colocada sobre a. Uma teoria econômica da despesa total na economia e seus efeitos no produto e na inflação. A economia keynesiana foi desenvolvida. A detenção de um activo numa carteira. Um investimento de carteira é feito com a expectativa de ganhar um retorno sobre ele. Este. Técnicas de controle de processo típico O conceito subjacente de controle de processo estatístico é baseado em uma comparação do que está acontecendo hoje com o que aconteceu anteriormente. Tomamos um instantâneo de como o processo normalmente executa ou construímos um modelo de como pensamos que o processo irá executar e calcular limites de controle para as medidas esperadas da saída do processo. Em seguida, coletamos dados do processo e comparamos os dados com os limites de controle. A maioria das medições deve estar dentro dos limites de controle. As medições que estão fora dos limites de controle são examinadas para ver se elas pertencem à mesma população do nosso instantâneo ou modelo inicial. Dito de forma diferente, usamos dados históricos para calcular os limites de controle iniciais. Em seguida, os dados são comparados com esses limites iniciais. Pontos que caem fora dos limites são investigados e, talvez, alguns serão mais tarde descartados. Se assim for, os limites serão recalculados eo processo repetido. Isto é referido como Fase I. Monitoramento de processo em tempo real, usando os limites a partir do final da Fase I, é Fase II. Controle de Qualidade Estatística (SQC) Ferramentas de controle de qualidade estatístico Várias técnicas podem ser usadas para investigar o produto por defeitos ou peças defeituosas após todo o processamento estar completo. As ferramentas típicas da SQC (descritas na seção 2) são: Planos de amostragem de lote Aceitar planos de amostragem de lote Militares Planos de amostragem padrão Conceitos subjacentes de controle de qualidade estatístico O objetivo do controle de qualidade estatístico é assegurar, de forma econômica, O produto enviado para os clientes atende às suas especificações. Inspecionar cada produto é caro e ineficiente, mas as conseqüências do envio não conforme produto pode ser significativo em termos de insatisfação do cliente. O controle estatístico da qualidade é o processo de inspecionar bastante produto de lotes dados para probabilistically assegurar um nível de qualidade especificado. Controle estatístico do processo Os procedimentos do controle estatístico do processo (SPC) podem ajudá-lo a monitorar o comportamento do processo. Arguably a ferramenta a mais bem sucedida de SPC é a carta de controle, desenvolvida originalmente por Walter Shewhart nos 1920s adiantados. Um gráfico de controle ajuda a registrar dados e permite que você veja quando um evento incomum, p. Ocorre uma observação muito alta ou baixa comparada com o desempenho do processo lquico-típico. Os gráficos de controle tentam distinguir entre dois tipos de variação do processo: Variação de causa comum, que é intrínseca ao processo e estará sempre presente. Variação de causa especial, que decorre de fontes externas e indica que o processo está fora do controle estatístico. Vários testes podem ajudar a determinar quando um evento fora de controle ocorreu. No entanto, como mais testes são empregados, a probabilidade de um falso alarme também aumenta. Antecedentes Um aumento acentuado no uso de gráficos de controle ocorreu durante a Segunda Guerra Mundial nos Estados Unidos para garantir a qualidade das munições e outros produtos estrategicamente importantes. O uso do SPC diminuiu um pouco após a guerra, embora tenha sido posteriormente retomado com grande efeito no Japão e continua até os dias atuais. Muitas técnicas de SPC foram descobertas por empresas americanas nos últimos anos, especialmente como um componente de iniciativas de melhoria de qualidade como o Seis Sigma. O uso generalizado de procedimentos de controle de gráficos tem sido muito auxiliado por pacotes de software estatístico e sistemas de coleta de dados cada vez mais sofisticados. Ao longo do tempo, foram desenvolvidas outras ferramentas de monitoramento de processos, incluindo: Gráficos de Cumulativa (CUSUM): a ordenada de cada ponto representado representa a soma algébrica da ordenada anterior e os desvios mais recentes do alvo. Gráficos de Média Móvel Ponderada Exponencialmente (EWMA): cada ponto do gráfico representa a média ponderada dos valores de subgrupos atuais e anteriores, dando mais peso ao histórico de processo recente e pesos decrescentes para dados mais antigos. Mais recentemente, outros defendem a integração do SPC com ferramentas de Controle de Processos de Engenharia (EPC), que alteram regularmente os insumos do processo para melhorar o desempenho. Contribuído por Keith M. Bower, um estatístico e webmaster do KeithBower. Tutorial: Controle Estatístico de Qualidade versus Controle Estatístico de Processos

No comments:

Post a Comment