Friday 28 July 2017

Moving Average Brownian Motion


Movimento browniano Movimento browniano, também chamado de movimento browniano. Qualquer de vários fenômenos físicos nos quais alguma quantidade está constantemente sofrendo pequenas flutuações aleatórias. Foi nomeado para o botânico escocês Robert Brown. O primeiro a estudar tais flutuações (1827). (Esquerda) Movimento aleatório de uma discrepância aleatória Brownian particle (right) entre o molecular Se um número de partículas sujeitas ao movimento browniano estão presentes em um dado meio e não há direção preferencial para as oscilações aleatórias, então durante um período de tempo o As partículas tenderão a ser espalhadas uniformemente por todo o meio. Assim, se A e B são duas regiões adjacentes e, no tempo t. A contém duas vezes mais partículas do que B. Naquele instante, a probabilidade de uma partícula deixar A entrar em B é duas vezes maior que a probabilidade de que uma partícula deixe B para entrar em A. O processo físico no qual uma substância tende a se espalhar constantemente de regiões de alta concentração para regiões de menor concentração é chamado de difusão. Portanto, a difusão pode ser considerada uma manifestação macroscópica do movimento browniano ao nível microscópico. Assim, é possível estudar a difusão simulando o movimento de uma partícula browniana e computando seu comportamento médio. Alguns exemplos dos inúmeros processos de difusão que são estudados em termos de movimento browniano incluem a difusão de poluentes através da atmosfera. A difusão de furos (regiões de minuto em que o potencial de carga elétrica é positivo) através de um semicondutor. E a difusão de cálcio através do tecido ósseo em organismos vivos. Investigações adiantadas Teoria de Einsteins do movimento browniano Estilo de MLA: Movimento de Brownian. Encyclopaeligdia Britannica. Encyclopaeligdia Britannica Online. Encyclopaeligdia Britannica Inc. 2016. Web. 07. 2016 lt www. britannica / science / Brownian-motion gt. Estilo APA: movimento browniano. (2016). Em Encyclopaeligdia Britannica. Retirado de www. britannica / science / Brownian-motion Chicago Manual de Estilo: Encyclopaeligdia Britannica Online. S. V. Movimento browniano, acessado em 07, 2016, www. britannica / science / Brownian-motion. Essas citações são geradas programaticamente e podem não coincidir com todas as regras de estilo de citação. Consulte os manuais de estilo para obter mais informações. Obrigado por seus comentários Nossos editores irão rever o que você enviou, e se ele atende aos nossos critérios, bem adicioná-lo ao artigo. Junte-se ao Britannicas Publishing Partner Program e à nossa comunidade de especialistas para obter uma audiência global para o seu trabalho Enviar esta página por e-mailBROWNIANMOTIONSIMULATION Simulação do movimento browniano em dimensões M BROWNIANMOTIONSIMULATION é uma biblioteca MATLAB que simula o movimento browniano numa região M-dimensional. O movimento browniano é um fenômeno físico que pode ser observado, por exemplo, quando uma pequena partícula é imersa em um líquido. A partícula se moverá como se sob a influência de forças aleatórias de direção e magnitude variáveis. Há uma idealização matemática desse movimento e, a partir daí, uma discretização computacional que nos permite simular as posições sucessivas de uma partícula submetida ao movimento browniano. (X 1) m é a dimensão espacial, (padrão 2) d é o coeficiente de difusão, (padrão 10.0) t é a dimensão espacial Intervalo de tempo total (padrão 1.0) Licenciamento: O código do computador e os arquivos de dados descritos e disponibilizados nesta página da Web são distribuídos sob a licença GNU LGPL. Idiomas: Dados e Programas Relacionados: DICESIMULATION. Um programa MATLAB que simula N lances de dados M, fazendo um histograma dos resultados. DUELSIMULATION. Um programa MATLAB que simula N repetições de um duelo entre dois jogadores, cada um dos quais tem uma precisão de disparo conhecida. GAMBLERSRUINSIMULATION. Um programa de MATLAB que simula o jogo da ruína dos jogadores. HIGHCARDSIMULATION. Um programa MATLAB que simula uma situação em que você vê os cartões em um baralho um por um, e deve selecionar o que você acha que é o mais alto e parar. ISING2DSIMULATION. Um programa MATLAB que realiza uma simulação de Monte Carlo de um modelo de Ising, uma matriz 2D de cargas positivas e negativas, cada uma das quais é susceptível de virar para estar de acordo com os vizinhos. LORENZSIMULATION. Um programa MATLAB que resolve as equações de Lorenz e exibe a solução, para várias condições de partida. POISSONSIMULATION. Uma biblioteca MATLAB que simula um processo de Poisson em que eventos ocorrem aleatoriamente com um tempo de espera médio de Lambda. RANDOMWALK1DSIMULATION. Um programa MATLAB que simula uma caminhada aleatória em uma região 1-dimensional. RANDOMWALK2DSIMULATION. Um programa MATLAB que simula uma caminhada aleatória em uma região bidimensional. RANDOMWALK2DAVOIDSIMULATION. Um programa MATLAB que simula uma caminhada aleatória auto-evitando em uma região bidimensional. RANDOMWALK3DSIMULATION. Um programa MATLAB que simula uma caminhada aleatória em uma região tridimensional. IMAGEM DOS REACTORES. Um programa MATLAB que uma simples simulação de Monte Carlo do efeito de blindagem de uma laje de uma certa espessura na frente de uma fonte de nêutrons. Este programa foi fornecido como um exemplo com o livro Métodos Numéricos e Software. SDE. Uma biblioteca MATLAB que ilustra as propriedades das equações diferenciais estocásticas e algoritmos comuns para sua análise, por Desmond Higham SIRSIMULATION. Um programa MATLAB que simula a propagação de uma doença através de um quarto hospitalar de camas M por N, usando o modelo SIR (Susceptível / Infectado / Recuperado). TRÊSBODISIMULAÇÃO. Um programa MATLAB que simula o comportamento de três planetas, obrigados a ficar em um plano, e se movendo sob a influência da gravidade, por Walter Gander e Jiri Hrebicek. TRAFFICSIMULATION. Um programa MATLAB que simula os carros esperando para passar por um semáforo. TRUELSIMULAÇÃO. Um programa MATLAB que simula N repetições de um duelo entre três jogadores, cada um dos quais tem uma precisão de disparo conhecida. Código Fonte: brownianmotionsimulation. m. Simula movimento browniano. Brownianmotiondisplay. m. Traça uma trajetória de movimento browniana para o caso M 2. browniandisplacementsimulation. m. Calcula o deslocamento ao quadrado ao longo do tempo, para um conjunto de casos. Browniandisplacementdisplay. m. O movimento de movimento browniano versus o comportamento esperado para um conjunto de casos. Timestamp. m. Imprime a data YMDHMS como um carimbo de data / hora. Exemplos e testes: Algumas parcelas são feitas pelo programa de teste. Motion1d. png. Um traçado de uma trajetória de movimento Browniano em 1D, com o tempo como segunda dimensão. Motion2d. png. Um enredo de uma trajetória de movimento browniano em 2D. Motion3d. png. Uma trama de uma trajetória de movimento browniano em 3D. Displacement1d. png. Um gráfico de deslocamentos quadrados, calculado em média sobre vários movimentos 1D Browniano. Displacement2d. png. Um lote de deslocamentos quadrados, calculado em média em vários movimentos brownianos 2D. Displacement3d. png. Um gráfico de deslocamentos quadrados, calculado em média em vários movimentos 3D Brownianos. Última revisão em 30 de setembro de 2012. Movimento de Brown e o mercado FOREX Por Armando Rodriguez Não seria um primeiro que uma formulação desenvolvida para fenômenos em um campo é usado com sucesso em outro, ele ainda tem um nome, e é chamado de analogia. Existem muitos exemplos de analogias a formulação para resolver estruturas mecânicas estáticas é o mesmo que o usado para resolver notícias de redes elétricas difusas como tinta em água parada, e tantos outros. Aqui estamos estabelecendo a analogia das mudanças no preço de mercado FOREX para o movimento browniano. Também analogias são feitas não apenas para o gozo da simetria da natureza, mas geralmente após alguma finalidade prática. Neste caso, queremos saber quando um algoritmo comercial não é susceptível de lucro e, portanto, negociação deve ser colocado em espera. O movimento browniano Movimento browniano (nomeado em homenagem ao botânico Robert Brown) originalmente se referia ao movimento aleatório observado ao microscópio de pólen imerso em água. Isto era intrigante porque a partícula do pólen suspendida na água perfeitamente imóvel não teve nenhuma razão aparente para mover tudo. Einstein assinalou que esse movimento foi causado pelo bombardeio aleatório de moléculas de água (excitadas pelo calor) no pólen. Era apenas o resultado da natureza molecular da matéria. A teoria moderna chama-o um processo estocástico e provou-se que pode ser reduzido ao movimento um walker aleatório. Um caminhante aleatório unidimensional é aquele que é tão provável dar um passo para frente como para trás, digamos eixo X, a qualquer momento. Um walkman bidimentional aleatório faz o mesmo em X ou Y (veja a ilustração). Os preços das ações mudar ligeiramente em cada transação, uma compra irá aumentar o seu valor de uma venda vai diminuí-lo. Sujeito a milhares de operações de compra e venda, os preços das ações devem mostrar um movimento browniano unidimensional. Este foi o tema de Louis Bachelier tese de doutorado em 1900, a teoria da especulação. Apresentou uma análise estocástica dos mercados de ações e de opções. C urrency taxas devem se comportar muito como uma partícula de pólen na água também. Espectro Browniano Uma propriedade interessante do movimento browniano é seu espectro. Qualquer função periódica no tempo pode ser considerada como a soma de uma série infinita de funções seno / cosseno de freqüências múltiplas ao inverso do período. Isso é chamado de série de Fourier. O conceito pode ser estendido a funções não periódicas, permitindo que o período vá para infinito, e esta seria a integral de Fourier. Em vez de uma seqüência de amplitudes para cada freqüência múltipla você lida com uma função da freqüência, esta função é chamada de espectro. A representação do sinal no espaço de freqüência é a linguagem comum na transmissão de informação, modulação e ruído. Equalizadores gráficos, incluídos até mesmo no equipamento de áudio doméstico ou programa de áudio do PC, trouxeram o conceito da comunidade de ciência para a família Presente em qualquer sinal útil é ruído. Estes são sinais indesejáveis, aleatórios na natureza, de origens físicas diferentes. O espectro do ruído relaciona-se com a sua origem: O ruído de J ohnsonNyquist (ruído térmico, ruído de Johnson ou ruído de Nyquist) é o ruído electrónico gerado pela agitação térmica dos portadores de carga (normalmente os electrões) dentro de um condutor eléctrico em equilíbrio, Acontece independentemente de qualquer tensão aplicada. O ruído térmico é aproximadamente branco. O que significa que a densidade espectral de potência é igual em todo o espectro de freqüência. Flicker ruído é um tipo de ruído eletrônico com um 1 / f, ou espectro rosa. Portanto, é freqüentemente referido como ruído 1 / f ou ruído rosa. Embora esses termos tenham definições mais amplas. Ocorre em quase todos os dispositivos eletrônicos. E resulta de uma variedade de efeitos, tais como impurezas num canal condutor, geração e ruído de recombinação num transistor devido à corrente de base, e assim por diante. Finalmente o ruído Brownian ou ruído vermelho é o tipo de ruído de sinal produzido pelo movimento browniano. Sua densidade espectral é proporcional a 1 / f 2. significando que ele tem mais energia em freqüências mais baixas, ainda mais do que o ruído rosa. A importância desta discussão é que quando você calcula o espectro do sinal da taxa de FOREX acontece ter uma dependência 1 / f 2, significando que é também Brownian na natureza. Comportamento no Tempo O comportamento do mercado FOREX na ausência de eventos também se comporta perfeitamente Browniano. Isto é dizer que as taxas de FOREX se comportam como caminhoneiros aleatórios unidimentional. A densidade de probabilidade de encontrar um walker aleatório na posição x após um tempo t segue a lei gaussiana. Onde s é o desvio padrão, aquele para um walker aleatório é uma função da raiz quadrada de t e isto é o que as taxas de FOREX seguem a perfeição experimental como mostrado abaixo para EUR / USD aspas na figura 1. Uma expressão analítica para o acima Figura com taxas em pips e t em minutos a partir de um tempo inicial t 0: Na média, há 45 EUR / USD citações em um minuto, então a expressão acima pode ser colocada em termos da N a citação após um tempo inicial. Drift e movimentos aleatórios Pode-se dizer que o movimento de partículas de pólen tem dois componentes, um aleatório na natureza descrito acima, mas se o líquido tem um fluxo em alguma direção, então um movimento de deriva é sobreposto ao Browniano. O mercado de FOREX apresenta ambos os tipos de movimento, uma freqüência mais alta componente aleatória e uma moção mais lenta deriva causada por notícias que afetam as taxas. Movimento aleatório é ruim para o negócio de especulação não há maneira de um lucro médio em um mercado perfeitamente aleatório. Apenas movimento de deriva pode render lucros. Aleatoriedade de mercado não é constante no tempo e nem é movimento de deriva. Durante eventos de notícias, os movimentos de deriva são grandes e é durante os eventos que os lucros podem ser feitos, mas há eventos mais limpos em que os algoritmos automáticos funcionam melhor e existem sujos, com muita aleatoriedade, que podem levar o algoritmo mais inteligente em Perdendo Em um sistema físico, a intensidade do movimento browniano de uma partícula pode ser tomada como o quadrado médio da sua velocidade aleatória e isto é encontrado proporcional à temperatura e inversamente à massa das partículas. LtVrdm 2 gt 3KT / m A velocidade aleatória é a diferença da velocidade total menos a velocidade média ou de deriva. O verdadeiro sentido para uma velocidade de deriva seria a velocidade média de um grande número de partículas em determinado momento que indicaria que todo o corpo de partículas líquidas e suspensas está se movendo como um todo. Mas, como a velocidade aleatória deve ser média no tempo até zero, a média da velocidade de uma única partícula no tempo também é igual à velocidade de deriva. Na analogia do mercado FOREX, a taxa do par de moedas é a posição dimensional das partículas e assim, a velocidade a qualquer momento t é o movimento da citação desde a última citação no tempo t 0 dividido pelo intervalo de tempo. A velocidade média seria a média móvel exponencial das aspas. A temperatura do par de moedas Tcp seria então: Tcp (m / 3K) ltVrdm 2 gt A massa de um par de moedas é uma magnitude a ser definida, então a constante de Boltzman não tem significado aqui. Ainda assim, a intensidade média de longo prazo do movimento de taxa Browniano é observada para depender do par de moedas, então eles parecem mostrar massas diferentes. Encontrar a massa para cada par de moedas permitiria ter uma referência comum para a temperatura. Se tomarmos a massa de EUR como 1, então: As massas acima rendem uma temperatura média similar a 300 K que é igual à temperatura ambiente na escala de Kelvin que corresponde a 27 graus Celsius. or 80.6 Fahrenheit. Mas além de fanciness não dá qualquer visão mais profunda sobre o problema. Fazendo (m / 3K) 1, torna-se uma temperatura que é igual à variância das velocidades. Uma vez que a raiz quadrada da variância é o desvio padrão, tal definição de temperatura dá uma idéia de quão intenso é o movimento aleatório em pips. segundo. Detecção de eventos e temperatura de moeda Um evento de notícias que afeta o valor do dólar dos EUA pode ser detectado quando suas taxas para o resto das principais moedas mudam consistentemente. Em outras palavras, quando os movimentos de taxa se correlacionam. (Veja Apêndice A sobre o cálculo do Gatilho de Eventos) Uma expressão numérica dessa correlação é a média da diferença em relação à EMA (Exponential Moving Average) em relação a todas as principais moedas. O problema com esta abordagem é que as moedas significativas a considerar não são que muitos, na verdade, apenas 6 pares podem ser usados. Uma média sobre uma amostra tão pequena não é imune contra movimento aleatório e propensa a produzir falsos positivos. A detecção pode ser melhorada se a contribuição para a média for ponderada inversamente pela temperatura dos pares. Mais precisamente: ponderado pela probabilidade da velocidade da velocidade observada não ser devida à natureza browniana do movimento. Sabendo que a distribuição de velocidade em movimentos brownianos é gaussiana, na ausência de um evento, a probabilidade de observar uma velocidade abaixo de um valor V pode ser calculada pela área sob a curva de densidade de probabilidade Gaussiana: Em palavras, a curva está nos dizendo: Considere o par EUR / USD que normalmente mostra um ltVrdm 2 gt de 2,94 pips / segundo, as velocidades abaixo deste valor são observadas 68,2 do tempo, além de apenas 31,8. Então, é justo dizer que se uma velocidade observada estiver acima, digamos 6, é muito improvável (4.4) que ela venha da aleatoriedade. A expressão matemática da probabilidade de uma velocidade V, não sendo aleatória é: P erf ((V 2 / ltVrdm 2 gt)) Onde erf (x) é conhecida como função de erro. A ponderada média de correlação será agora: ANEXO A O Trigger do eventoA aproximação forte do movimento browniano fracionário por médias móveis de passeios aleatórios simples Pl Rvsz por ocasião do seu 65º aniversário Tams Szabados Departamento de Matemática, Universidade Técnica de Budapeste, Egry u 20-22 , H p. V em. Resumo O movimento browniano fracionário é uma generalização do movimento browniano ordinário, usado particularmente quando a dependência de longo alcance é necessária. Sua introdução explícita deve-se a Mandelbrot e van Ness (SIAM Rev. 10 (1968) 422) como um processo gaussiano auto-semelhante W (H) (t) com incrementos estacionários. Aqui a auto-similaridade significa que, onde H (0,1) é o parâmetro Hurst do movimento browniano fracionário. F. B. Knight deu uma construção do movimento Brownian ordinário como um limite de caminhadas aleatórias simples em 1961. Mais tarde seu método foi simplificado por Rvsz (Random Walk in Random and Non-Random Environments, World Scientific, Cingapura, 1990) e depois por Szabados (Studia Sci , Math. Hung. 31 (1996) 249297). Esta abordagem é bastante natural e elementar, e como tal, pode ser estendido para situações mais gerais. Com base nisso, aqui usamos médias móveis de uma sequência aninhada adequada de passeios aleatórios simples que quase certamente convergem uniformemente para movimento fracionário Browniano em compactos quando. A taxa de convergência provada neste caso é, onde N é o número de passos utilizados para a aproximação. Se a mais precisa (mas também mais intrincada) Komls et al. (1975, 1976) é usada em vez disso para incorporar passeios aleatórios no movimento browniano ordinário, então o mesmo tipo de médias móveis quase certamente convergem uniformemente para o movimento browniano fracionário em compactos para qualquer H (0,1). Além disso, a taxa de convergência é conjecturada para ser a melhor possível, embora só seja provada aqui. MSC Palavras-chave Movimento browniano fracionário Construção em sentido horário Aproximação forte Caminhada aleatória Média móvel 1 Movimento browniano fracionário O movimento browniano fracionário (FBM) é uma generalização do movimento browniano comum (BM) usado particularmente quando a dependência de longo alcance é essencial. Embora a história da fBM possa ser rastreada até Kolmogorov (1940) e outros, sua introdução explícita deve-se a Mandelbrot e van Ness (1968). Sua intenção era definir um self-similar. Centrado Gaussiano processo com incrementos estacionários, mas não independentes e com caminhos de amostra contínua a. s. Aqui a auto-similaridade significa que para qualquer a gt0, onde H (0,1) é o parâmetro Hurst da fBM e denota igualdade na distribuição. Eles mostraram que essas propriedades caracterizam fBM. O caso se reduz a BM ordinário com incrementos independentes, enquanto que os casos (resp.) Dão incrementos negativamente (respectivamente positivamente) correlacionados ver Mandelbrot e van Ness (1968). Parece que nas aplicações de fBM, o caso é o mais utilizado. Mandelbrot e van Ness (1968) deram a seguinte representação explícita de fBM como uma média móvel de BM normal, mas de dois lados: onde t 0 e (x) max (x, 0). A idéia de (2) está relacionada ao cálculo fracionário determinístico. Que tem uma história ainda mais longa do que a fBM, voltando a Liouville, Riemann e outros ver em Samko et al. (1993). Seu caso mais simples é quando uma função contínua f e um inteiro positivo são dados. Então uma indução com integração por partes pode mostrar que é a ordem iterada antiderivada (ou integral de ordem) de f. Por outro lado, esta integral é bem definida para valores positivos não inteiros de também, caso em que pode ser chamada de integral fracionária de f. Assim, heuristicamente, a parte principal de (2), é a integral de ordem do processo de ruído branco W (t) no sentido comum não existente). Assim, o fBM W (H) (t) pode ser considerado como uma modificação de incremento estacionário da integral fracionária W (t) do processo de ruído branco, onde. 2 Construção de passeio aleatório do movimento browniano ordinário É interessante que uma construção muito natural e elementar de BM ordinário como um limite de passeios aleatórios (RWs) apareceu relativamente tarde. A teoria matemática do BM começou por volta de 1900 com as obras de Bachelier, Einstein, Smoluchowski e outros. A primeira construção de existência foi dada por Wiener 1921 e Wiener 1923 que foi seguido por vários outros mais tarde. Knight (1961) introduziu a primeira construção por passeios aleatórios que foi simplificada mais tarde por Rvsz (1990). O autor presente teve a sorte de ouvir esta versão da construção diretamente de Pl Rvsz em um seminário na Universidade Técnica de Budapeste um par de anos antes da publicação do livro Rvszs em 1990 e ficou imediatamente fascinado por ele. O resultado de um esforço para simplificá-lo mais adiante apareceu em Szabados (1996). A partir de agora, a expressão construção RW sempre se referirá à versão discutida neste último. É assintoticamente equivalente a aplicar a inclusão de Skorohod (1965) para encontrar uma sequência diádica aninhada de RWs em BM, ver Teorema 4 em Szabados (1996). Como tal, tem algumas vantagens e desvantagens em relação à melhor aproximação possível celebrada por BM de somas parciais de variáveis ​​aleatórias com função de gerador de momento finito em torno da origem. Este último foi obtido por Komls 1975 e Komls 1976. e será abreviado KMT aproximação na seqüência. As principais vantagens da construção RW são que é elementar, explícito, usa apenas valores passados ​​para construir novos, fáceis de implementar na prática e muito apropriados para aproximar integrais estocásticas, ver Teorema 6 em Szabados (1996) e também Szabados 1990). Recorde-se que a aproximação KMT constrói somas parciais (por exemplo, uma RW simétrica simples) a partir da própria BM (ou de uma sequência i. d. de variáveis ​​aleatórias normais normais) por uma sequência intrincada de transformações de quantil condicionais. Para construir qualquer novo valor que ele usa para seqüência inteira (passado e valores futuros também). Por outro lado, a maior fraqueza da construção RW é que ela dá uma taxa de convergência, enquanto a taxa da aproximação KMT é a melhor possível, onde N é o número de passos (termos) considerados no RW. Na sequência, primeiro as propriedades principais da construção RW acima mencionada são resumidas. Então esta construção RW é usada para definir uma aproximação semelhante a (2) de fBM por médias móveis do RW. A convergência e o erro desta aproximação são discutidos a seguir. Como consequência das propriedades de aproximação relativamente mais fracas da construção RW, a convergência para fBM será estabelecida apenas para, ea taxa de convergência não será a melhor possível. Para compensar isso, no final do artigo discutimos as propriedades de convergência e erro de uma construção similar de fBM que usa a aproximação KMT, que converge para todo H (0,1) e cuja taxa de convergência pode ser conjeturada como sendo O melhor possível quando se aproxima fBM por médias móveis de RWs. A construção de RW da BM resumida aqui é tomada de Szabados (1996). Começamos com uma matriz infinita de i. i.d. Variáveis ​​aleatórias X m (k), definidas no mesmo espaço de probabilidade subjacente. Cada linha desta matriz é uma base de uma aproximação de BM com um certo tamanho de passo dyadic t 2 2 m no tempo e um tamanho de passo correspondente x 2 m no espaço, ilustrado pela tabela seguinte. A segunda etapa da construção é torcer. A partir dos percursos aleatórios independentes (isto é, a partir das linhas da Tabela 1), queremos criar os dependentes de modo que, após o encolhimento dos passos temporais e espaciais, cada RW consecutivo se torne um refinamento do anterior. Como a unidade espacial será reduzida pela metade em cada linha consecutiva, definimos tempos de parada por T m (0) 0 e para k 0, estes são os instantes de tempo aleatórios quando um RW visita inteiros pares, diferentes do anterior. Depois de encolher a unidade espacial pela metade, uma modificação adequada deste RW irá visitar os mesmos números inteiros na mesma ordem que o RW anterior. (Isto é o que chamamos de refinamento). Operaremos aqui em cada ponto do espaço de amostra separadamente, isto é, fixaremos um caminho de amostra de cada RW que aparece na Tabela 1. Assim, cada ponte S m (T m (k 1)) S m (T m (k)) tem que imitar o passo correspondente X m 1 (k 1) do RW anterior. Definimos RWs retorcidos recursivamente para m 1,2,3, usando, começando com (n 0). Com cada m fixo procedemos para k 0, 1, 2, sucessivamente, e para cada n na ponte correspondente, T m (k) lt n T m (k 1). Qualquer ponte é invertida se seu sinal difere do desejado (Fig. 1 Fig. 2 e Fig. 3): e então. Então cada (n 0) é ainda um RW simples, simétrico ver Lemma 1 em Szabados (1996). Além disso, os RWs torcidos têm a propriedade de refinamento desejada: O último passo da construção RW está encolhendo. Os caminhos de amostra de (n 0) podem ser estendidos a funções contínuas por interpolação linear. Desta forma obtém-se (t 0) para t real. Em seguida, definimos a mth aproximação de BM (ver Fig. 4) por comparar três etapas de um percurso de amostra da primeira aproximação B 0 (t) ea parte correspondente da segunda aproximação B 1 (t) na Fig. 1 e Fig. 4. O segundo visita os mesmos inteiros (diferente do anterior) na mesma ordem que o primeiro, assim imita o primeiro, mas os instantes de tempo correspondentes diferem em geral: 2 2 T 1 (k) k. Da mesma forma, (3) implica a propriedade de refinamento geral, mas há um intervalo de tempo em geral. A idéia básica da construção de RW de BM é que esses intervalos de tempo se tornam uniformemente pequenos se m for suficientemente grande. Pode ser provado pelo seguinte lema simples. Tabela 1 O ajuste de partida para a construção de RW de BM Não é de surpreender que esta e a propriedade de refinamento (5) implicam a proximidade uniforme de duas aproximações consecutivas de BM se m for suficientemente grande. Este lema garante a a. s. Convergência uniforme das aproximações RW em intervalos compactos e é claro que o processo limite é o processo de Wiener (BM) com caminhos de amostra contínuos quase certamente. Teorema 1 A aproximação RW a. s. Converge uniformemente para um processo Wiener em qualquer intervalo compacto. Para qualquer e para qualquer m m 2 (C), temos Os resultados citados acima correspondem ao Lemma 2. Lemma 3 e Lemma 4 e Teorema 3 em Szabados (1996). Mencionamos que as afirmações aqui apresentadas são dadas em formas um pouco mais nítidas, mas podem ser facilmente lidas a partir das provas da referência acima. 3 Uma aproximação de caminho do movimento browniano fracionário Uma construção de fBM quase seguramente convergente foi dada por Carmona e Coutin (1998) representando fBM como um funcional linear de um processo Gaussiano de dimensão infinita. Outra construção de caminho foi dada por Decreusefond e stnel 1998 e Decreusefond e stnel 1999 que converge no sentido L 2. Esta construção utiliza aproximações discretas da representação média móvel de fBM (2). Baseado em partições determinísticas do eixo temporal. Mais exatamente, (2) é substituído por uma integral sobre o intervalo compacto 0, t, mas com um kernel mais complicado contendo também uma função hipergeométrica. A aproximação de fBM aqui discutida também será uma versão discreta da representação de média móvel (2) de fBM, mas as partições diádicas são tomadas no eixo espacial de BM e assim se obtém partições aleatórias no eixo de tempo. Isto é assintoticamente uma incorporação do tipo Skorohod de RWs aninhados em BM. Como resultado, em vez de integral temos soma, e BM é substituído pela sequência de refinamento aninhada de suas aproximações RW discutidas na seção anterior. Uma vez que (2) contém BM de dois lados, precisamos de duas seqüências: uma para a direita e outra para o semi-eixo esquerdo. A partir de agora, vamos usar as seguintes notações: m 0 é um inteiro, t 2 2 m. . Introduzindo o kernel a mth aproximação de fBM por definição é B m (H) (0) 0, e para números inteiros positivos k, onde a convenção 0 H 1/2 0 é aplicada mesmo para expoentes negativos. É útil escrever B m (H) de outra forma aplicando uma versão discreta de integração por partes. Começando com (8) e rearranjando-a de acordo com B m (tr), obtemos para k 1 que Desta forma temos uma versão discreta do que é o que se obtém a partir de (2) usando uma integração formal por partes 5 abaixo). Para suportar a definição acima, mostramos que B m (H) tem propriedades análogas às propriedades caracterizadoras de fBM em um ajuste discreto. (A) B m (H) é centrado (claro de sua definição) e tem incrementos estacionários. Se k 0 e k são números inteiros não negativos, então (substituindo u r k 0) (b) B m (H) é aproximadamente auto-similar no seguinte sentido: Se a 2 2 m 0. Onde m 0 é um inteiro, m 0 m. Por outro lado, o Lema 4 (e o Teorema 2) abaixo mostram que B m (H) e B m 1 (H) (e B mn (por exemplo, um número inteiro não negativo para o qual ka é também um número inteiro) H)) são uniformemente próximos com grande probabilidade arbitrária em qualquer intervalo compacto se m é suficientemente grande (quando). Poderia ser provado de forma semelhante que para um j. Onde j 0 é um inteiro arbitrário, 2 2 n j 2 2 (n 1) com um inteiro n 0, as distribuições dimensionais finitas de podem ser feitas arbitrariamente perto das distribuições dimensionais finitas de B m n (H) se m é suficientemente grande. Consequentemente, B m (H) é arbitrariamente próximo de self-similar para qualquer dyadic a j 2 2 m 0 se m é suficientemente grande. (C) Para qualquer tlt tl ltlt t n. A distribuição limite do vetor como m é gaussiana. Onde . Este fato decorre do Teorema 2 (baseado no Lema 5) abaixo que afirma que o processo B m (H) converge quase que com segurança para o processo gaussiano W (H) em intervalos compactos. 4 Convergência da aproximação a fBM Inicialmente, será mostrado que duas aproximações consecutivas de fBM são definidas por (8). Ou equivalentemente por (9). São uniformemente próximas se m for suficientemente grande, supondo. Aparentemente, a aproximação acima RW de BM não é bom o suficiente para ter convergência para. Ao provar a convergência, uma grande desigualdade de desigualdade semelhante ao Lemma 1 desempenhará um papel importante. Se X1, X2, é uma sequência de i. i.d. Variáveis ​​aleatórias, e S r a r X r. Onde nem todos são zero e, então (ver, por exemplo, Stroock, 1993, página 33). A soma acima pode estender-se a finitamente muitos ou a contável muitos termos. Como um corolário, se S 1, S 2, SN são somas arbitrárias do tipo acima, pode-se obter o seguinte análogo do lema 1. Para qualquer C gt1 e N 1, então usando (19) obtém-se o resultado com o Exceção de um conjunto de probabilidade no máximo 2 (K 2 2 m) 1 C. Onde e C gt1 são arbitrários. D) O máximo de U m, k. Dividimos a meia linha em intervalos de comprimento L. Onde L 4 K. Para definiteness, escolher L 4 K. Além disso, esta parte será semelhante à parte (b). Na seqüência usamos a convenção de que quando o limite inferior de uma soma é um número real x. A soma começa em x, e similarmente, se o limite superior é y. A soma termina em y. By (17) , Lemma 3 gives an upper bound for the maximal difference between two consecutive approximations of BM if j 1 is an arbitrary fixed value: with the exception of a set of probability at most 3( jL 2 2 m ) 1 C . where C gt1 is arbitrary and m m 1 ( C ). This implies for any C 3 and m m 1 ( C ) that the above inequality (24) holds simultaneously for all j 1,2,3, with the exception of a set of probability at most For the other major factor in (23) binomial series are applied as above, with , and v 1: In the second case when the above method apparently gives convergence here (just like in part (b)) only when : for any C 3 and m m 1 ( C ) with the exception of a set of probability at most ( K 2 2 m ) 1 C . Now one can combine the results of parts (a)(d), see (18). (20). (21). (22). (27) and (28). to obtain the statement of the lemma. Remember that the rate of convergence in parts (a) and (c) is faster than the one in parts (b) and (d). Particularly, observe that there is a factor m in (b) and (d) which has a counterpart m 1/2 in (a) and (c). Since in the statement of this lemma we simply replaced the faster converging factors by the slower converging ones, the constant multipliers in (a) and (c) can be ignored if m is large enough. It is simple to extend formula (9) of the m th approximation B m ( H ) of fBM to real arguments t by linear interpolation, just like in the case of the m th approximation B m ( t ) of ordinary BM see, e. g. in Szabados (1996). So let m 0 and k 0 be integers, 0,1, and define Then the resulting continuous parameter approximations of fBM B m ( H ) ( t ) ( t 0) have continuous, piecewise linear sample paths. With this definition we are ready to state a main result of this paper. where ( H , K ) and are the same as in Lemma 4. ( The case is described by Theorem 1.) except for an event of probability at most 8( K 2 2 m ) 1 C . Since both B m 1 ( H ) ( t ) and B m ( H ) ( t ) have piecewise linear sample paths, their maximal difference must occur at vertices of the sample paths. Let M m denote the maximal increase of B m ( H ) between pairs of points t k , t k 1 in 0, K : except for an event of probability at most 2( K 2 2 m ) 1 C . Cf. (31) below. A sample path of B m 1 ( H ) ( t ) makes four steps on any interval t k , t k 1 . To compute its maximal deviation from D m it is enough to estimate its change between the midpoint and an endpoint of such an interval, at two steps from both the left and right endpoints: except for an event of probability at most 2( K 2 2( m 1) ) 1 C . Hence except for an event of probability at most . The explanation above shows that at the same time this gives the upper bound we were looking for except for an event of probability at most (82 32 C )( K 2 2 m ) 1 C . Then a similar argument can be used as in the proof of Lemma 4. see, e. g. part (a) there: Hence taking N K 2 2 m and C gt1 in (12). and using (19) too, one obtains for m 1 that with the exception of a set of probability at most 2( K 2 2 m ) 1 C . where K gt0 and C gt1 are arbitrary. except for an event of probability at most 8.125( K 2 2 m ) 1 C where ( H , K ) and ( H ) are the same as in Lemma 4. Remember that the rate of convergence in (31). just like in parts (a) and (c) of the proof of Lemma 4. is faster than the one in parts (b) and (d) of that proof. Apart from constant multipliers, the result of (31) has the same form as the results of (a) and (c) there. Since in the statement of this theorem we simply replaced the faster converging factors by the slower converging ones, the constant multipliers of (31) can be ignored if m is large enough. This is why the ( H , K ) defined by Lemma 4 is suitable here too. Hence one can get that By the BorelCantelli lemma this implies that with probability 1, the sample paths of B m ( H ) ( t ) converge uniformly to a process W ( H ) ( t ) on any compact interval 0, K . Then W ( H ) ( t ) has continuous sample paths, and inherits the properties of B m ( H ) ( t ) described in Section 3. it is a centered, self-similar process with stationary increments. As Lemma 5 below implies, the process so defined is Gaussian. Therefore, W ( H ) ( t ) is an fBM and by (33) the convergence rate of the approximation is the one stated in the theorem. The aim of the next lemma to show that integration by parts is essentially valid for (2) representing W ( H ) ( t ), resulting in a formula similar to (10). Then it follows that can be stochastically arbitrarily well approximated by a linear transform of the Gaussian process , so it is also Gaussian. After the second term on the right-hand side of (37) we turn to the third term. Take now any (0, 0 ). Since h ( s , t ) has continuous partial derivative w. r.t. s on the intervals 1/ , and , t and by Theorem 1. B m a. s. uniformly converges to the Wiener process W on these intervals, comparing (35) and (36) shows that with this there exists an m such that Theorem 1 also implies that m can be chosen so that for the fourth term in (37) one similarly has Finally, Theorem 2 (or, with a modified construction, Theorem 3 below) guarantees that m can be chosen so that the first term in (37) satisfies the same inequality: The last four formulae together prove the lemma. 5 Improved construction using the KMT approximation Parts (b) and (d) of the proof of Lemma 4 gave worse rate of convergence than parts (a) and (c), in which the rates can be conjectured to be best possible. The reason for this is clearly the relatively weaker convergence rate of the RW approximation of ordinary BM, that was used in parts (b) and (d), but not in parts (a) and (c). It is also clear from there that using the best possible KMT approximation instead would eliminate this weakness and would give hopefully the best possible rate here too. The price one has to pay for this is the intricate and future-dependent procedure by which the KMT method constructs suitable approximating RWs from BM. The result we need from Komls 1975 and Komls 1976 is as follows. Suppose that one wants to define an i. i.d. sequence X 1 , X 2 , of random variables with a given distribution so that the partial sums are as close to BM as possible. Assume that E ( X k )0, Var ( X k )1 and the moment generating function E (e uX k )lt for . Let S ( k ) X 1 X k . k 1 be the partial sums. If BM W ( t ) ( t 0) is given, then for any n 1 there exists a sequence of conditional quantile transformations applied to W (1), W (2),, W ( n ) so that one obtains the desired partial sums S (1), S (2),, S ( n ) and the difference between the two sequences is the smallest possible: for any x gt0, where C 0 , K 0 , are positive constants that may depend on the distribution of X k . but not on n or x . Moreover, can be made arbitrarily large by choosing a large enough C 0 . Taking here one obtains where n 1 is arbitrary. Fix an integer m 0, and introduce the same notations as in previous sections: . Then multiply the inner inequality in (42) by 2 m and use self-similarity (1) of BM (with ) to obtain a shrunken RW (0 k K 2 2 m ) from the corresponding dyadic values W ( t k ) (0 k K 2 2 m ) of BM by a sequence of conditional quantile transformations so that with the exception of a set of probability smaller than K 0 ( K 2 2 m ) C 0 . for any m 1 and K gt0. Here (19) was used too. Then (43) implies for the difference of two consecutive approximations that for any m 1 and K gt0. This is exactly what we need to improve the rates of convergence in parts (b) and (d) of Lemma 4 . Substitute these KMT approximations into definition (8) or (9) of B m ( H ) ( t k ). This way one can obtain faster converging approximations of fBM. Then everything above in 3 and 4 are still valid, except that one can use the improved formula (44) instead of Lemma 3 at parts (b) and (d) in the proof of Lemma 4. This way, instead of (21) one gets for any m 1, except for a set of probability smaller than 2 K 0 ( K 2 2 m ) C 0 . Also by (44). instead of (24) and (25) one has the improved inequalities: with the exception of a set of probability smaller than 2 K 0 ( jL 2 2 m ) C 0 . where m 1. If C 0 is chosen large enough so that C 0 2, then (46) holds simultaneously for all j 1,2,3, except for a set of probability smaller than (Remember that we chose L 4 K in part (d) of the proof of Lemma 4 .) Then using this in part (d) of Lemma 4. instead of (26) one needs the estimate Then instead of (27) and (28). the improved results are as follows. First, in the case one has for any m 1 and C 0 large enough so that C 0 2, except for a set of probability smaller than given by (47). Now in the case it follows that for any m 1 and C 0 large enough so that C 0 2, except for a set of probability smaller than given by (47) . As a result, there is convergence for any H (0,1). Since the KMT approximation itself has best possible rate for approximating ordinary BM by RW, it can be conjectured that the resulting convergence rates in the next lemma and theorem are also best possible (apart from constant multipliers) for approximating fBM by moving averages of a RW. Proof Combine the results of parts (a) and (c) in the proof of Lemma 4 and the improved inequalities above, that is, apply (18). (20). (45). (22) and (48). and (49). Here too, we simply replace the faster converging factors by the slower converging ones, but the constant multipliers of faster converging terms cannot be ignored, since the lemma is stated for any m 1. Now we can extend the improved approximations of fBM to real arguments by linear interpolation, in the same way as we did with the original approximations, see (29). This way we get continuous parameter approximations ( t 0) for m 0,1,2,, with continuous, piecewise linear sample paths. Now we can state the second main result of this paper. where and are the same as in Lemma 6. ( In other words . in the definition of in Lemma 6 the constant multiplier 10 has to be changed to 20 here .) The constants are defined by the KMT approximation (41) with C 0 chosen so large that C 0 2. The case is described by (43). Proof The proof can follow the line of the proof of Theorem 2 with one exception: the constant multipliers in (31) and consequently in (30) cannot be ignored here. This is why the multiplier of Lemma 6 had to be modified in the statement of the theorem. It can be conjectured that the best rate of approximation of fBM by moving averages of simple RWs is , where N is the number of points considered. Though it seems quite possible that definition of above, see (8) with the KMT approximations , supplies this rate of convergence for any H (0,1), but in Theorem 3 we were able to prove this rate only when . A possible explanation could be that in parts (b) and (d) of Lemma 4 we separated the maxima of the kernel and the integrator parts. As a result, the convergence rate we were able to prove when is the same that the original KMT approximation (43) gives for ordinary BM, where N K 2 2 m . though in this case the sample paths of fBM are smoother than that of BM. (See, e. g. Decreusefond and stnel, 1998 .) On the other hand, the obtained convergence rate is worse than this, but still thought to be the best possible, , when , which heuristically can be explained by the more zigzagged sample paths of fBM in this case. References Carmona and Coutin 1998 P. Carmona. L. Coutin Fractional Brownian motion and the Markov property Elect. Comm. Probab. Volume 3. 1998. pp. 95107 Decreusefond and stnel 1998 Decreusefond, L. stnel, A. S. 1998. Fractional Brownian Motion: Theory and Applications. Systmes Diffrentiels Fractionnaires, ESAIM Proceedings 5, Paris, pp. 7586. Decreusefond and stnel 1999 L. Decreusefond. COMO. stnel Stochastic analysis of the fractional Brownian motion Potential Anal. Volume 10. 1999. pp. 174214 Feller 1966 W. Feller An Introduction to Probability Theory and Its Applications, Vol. II. 1966. Wiley, New York Knight 1961 F. B. Knight On the random walk and Brownian motion Trans. Amer. Math. Soc. Volume 103. 1961. pp. 218228 Kolmogorov 1940 A. N. Kolmogorov Wienersche Spiralen und einige andere interessante Kurven im Hilbertschen Raum Doklady A. N. S. S.S. R. Volume 26. 1940. pp. 115118 Komls 1975 J. Komls. P. Major. G. Tusndy An approximation of partial sums of independent RVs, and the sample DF. I Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 32. 1975. pp. 111131 Komls 1976 J. Komls. P. Major. G. Tusndy An approximation of partial sums of independent RVs, and the sample DF. II Z. Wahrscheinlichkeitstheorie verw. Gebiete. Volume 34. 1976. pp. 3358 Mandelbrot and van Ness 1968 B. B. Mandelbrot. J. W. van Ness Fractional Brownian motions, fractional noises and applications SIAM Rev. Volume 10. 1968. pp. 422437 Rvsz 1990 P. Rvsz Random Walk in Random and Non-Random Environments. 1990. World Scientific, Singapore Samko 1993 S. G. Samko. A. A. Kilbas. O. I. Marichev Fractional Integrals and Derivatives. 1993. Gordon amp Breach Science, Yverdon Skorohod 1965 A. V. Skorohod Studies in the Theory of Random Processes. 1965. Addison-Wesley, Reading, MA Stroock 1993 D. W. Stroock Probability Theory, an Analytic View. 1993. Cambridge University Press, Cambridge Szabados 1990 Szabados, T. 1990. A discrete Its formula. Coll. Math. Soc. Jnos Bolyai 57. Limit Theorems in Probability and Statistics, Pcs (Hungary) 1989. North-Holland, Amsterdam, pp. 491502. Szabados 1996 T. Szabados An elementary introduction to the Wiener process and stochastic integrals Studia Sci. Math. Hung. Volume 31. 1996. pp. 249297 Wiener 1921 N. Wiener The average of an analytical functional and the Brownian movement Proc. Nat. Acad. Sei. U. S.A. Volume 7. 1921. pp. 294298 Wiener 1923 N. Wiener Differential space J. Math. Phys. Volume 2. 1923. pp. 132174 Copyright 2001 Elsevier Science B. V. All rights reserved. Citing articles ( )Dekalog8217s Brownian Motion Indicator Dekalog Blog is an interesting site where the author, Dekalog, attempts to develop new and unique ways to apply quantitative analysis to trading. In a recent post, he discussed using the concept of Brownian Motion in a way that would create bands around a chart8217s closing prices. Those bands would represent non-trending periods, and a trader could identify any time the price was outside the bands as a trending period. Dekalog8217s method of using Brownian Motion creates upper and lower bands that define trending conditions. At the root of most every trend following trading system is a way to define a trends existence and determine its direction. Using Dekalog8217s Brownian Motion idea as the root of a system might be a unique way to identify trends and extract profits from markets through those trends. Here is how Dekalog explains his concept: The basic premise, taken from Brownian motion, is that the natural log of price changes, on average, at a rate proportional to the square root of time. Take, for example, a period of 5 leading up to the 8220current bar.8221 If we take a 5 period simple moving average of the absolute differences of the log of prices over this period, we get a value for the average 1 bar price movement over this period. This value is then multiplied by the square root of 5 and added to and subtracted from the price 5 days ago to get an upper and lower bound for the current bar. He then applies these upper and lower bounds to the chart: If the current bar lies between the bounds, we say that price movement over the last 5 periods is consistent with Brownian motion and declare an absence of trend, i. e. a sideways market. If the current bar lies outside the bounds, we declare that price movement over the last 5 bars is not consistent with Brownian motion and that a trend is in force, either up or down depending on which bound the current bar is beyond. Dekalog also believes this concept could have value beyond just being an indicator: It is easy to imagine many uses for this in terms of indicator creation, but I intend to use the bounds to assign a score of price randomness/trendiness over various combined periods to assign price movement to bins for subsequent Monte Carlo creation of synthetic price series. Comments

No comments:

Post a Comment