Sunday 13 May 2018

Redes neurais média móvel


Rede Neural 2 Médias Móveis Uma rede neural Expert Advisor baseado em duas médias móveis com o modo de treinamento. Treinar o especialista em exemplos selecionados e fazer um lucro na vida real. A EA pode trabalhar em qualquer instrumento e em qualquer período de tempo. Algoritmo de Negociação da EA Duas médias móveis são analisadas pelo núcleo da rede neural, que produz comandos para comprar ou vender. São fornecidos à primeira camada os valores de duas médias móveis, rápidas (FMA) e lentas (SMA), na segunda camada calcula-se dois neurônios responsáveis ​​pela compra (N compra) e Venda (N vendem), a decisão de comprar Ou vender é feita no terceiro nível. O diagrama de blocos da rede neural é mostrado na figura. Treinamento do Conselheiro Especialista No modo de treinamento, a EA lembra os valores das médias móveis marcadas pelo usuário no gráfico do instrumento de moeda. No futuro, durante o funcionamento normal, reconhece os valores das médias móveis. Para treinar a marca EA, pelo menos, um longo e um comércio curto no gráfico. Para indicar um comércio longo use a seta Comprar, e para o comércio de curto use a seta Venda. Você pode colocar mais setas no gráfico. Quanto mais flechas, mais longo será o processo de treinamento. A presença de quaisquer outros objetos na tabela, além das setas, não é desejável. Após o treinamento, a pasta NN 2MA será criada na pasta comum do terminal. Ele conterá o arquivo HHHHHHNN2MA. bin com as configurações da rede neural treinada. XXXXXX no nome do arquivo é o nome do instrumento financeiro. Em operação normal, o EA carrega os dados do arquivo. Se o arquivo não for encontrado, ele usará as configurações padrão. Por padrão, a EA é treinada em USDJPY e um período de uma hora, os comércios são selecionados em 2017. Os seguintes parâmetros de entrada são responsáveis ​​pela formação EA: O número de pesos por neurônio. Igual ao comprimento do MA. Padrão - 48. O número de ciclos de treinamento - padrão 100. Quanto maior o valor, mais longo será o processo de treinamento. Na versão de teste é 10. Factor b - o valor afeta a velocidade da correção de pesos de neurônios, é usado para treinar a rede. O valor padrão é 0.7, não precisa ser alterado. Modo de aprendizagem EA - permite o modo de treino da EA. Exemplos de negociações especificadas para treinar o EA estão disponíveis na figura. Configurações do Modo Normal Configurações das Médias Móveis Você pode ajustar as configurações de cada média móvel: o período, o preço, o modo de cálculo. Volume da ordem - padrão é 0,1. Valor de deslizamentos em pontos - padrão é 30. Número de tentativas para abrir uma posição - padrão é 5. Nível StopLoss em pontos - padrão é 0. Nível TakeProfit em pontos - padrão é 0. Nível TrailingStop em pontos - padrão é 650. Permitir Gestão de dinheiro - controlar o tamanho da ordem para entrar no mercado, habilitado pelo defeito. Se o modo estiver desativado, o tamanho da ordem será retirado do parâmetro Volume de ordem. O volume de pedidos como uma porcentagem do depósito - usado para controlar o tamanho da ordem, padrão é de 5 por cento. Adicionando à posição aberta - ativado por padrão. Se houver um sinal para entrar no mercado na direção de uma posição aberta, a EA entra no mercado. Configurações da Rede Neural O número de pesos por neurônio. Igual ao comprimento do MA. Quanto maior o valor, mais preciso será o estado atual do mercado ser reconhecido, mas reduz o número de comércios. Quanto menor o valor, menos preciso será o estado atual do mercado ser reconhecido, mas o número de negócios aumenta. O valor da ativação neuronal. O valor é aproximadamente 0,75 do valor de O número de pesos por neurônio. Quanto maior o valor, mais estrita é a seleção de neurônios para tomar uma decisão. Na versão de teste é 40. O número de ciclos de treinamento - padrão é 100. Fator b a velocidade de correção de peso, o padrão é 0.7. Modo de aprendizagem EA o modo de treinamento EA. Durante o treinamento, os valores máximos dos neurônios serão mostrados nos comentários no gráfico. Esses valores podem ser usados ​​como um valor de ativação do neurônio. Um exemplo é mostrado na figura. Ativar comentários - permite comentários no gráfico. Número mágico de conselheiro. Pausar após a negociação em milissegundos. Por padrão, o EA é treinado em USDJPY H1 em dois comércios em 2017. O resultado do Expert Advisor testes em 2017 é mostrado na figura. Eu entendo redes neurais com qualquer número de camadas ocultas pode aproximar funções não-lineares, no entanto, pode Aproximadamente: Eu não posso pensar de como poderia. Parece uma limitação muito óbvia de redes neurais que potencialmente podem limitar o que ele pode fazer. Por exemplo, devido a essa limitação, as redes neurais provavelmente não podem aproximar-se adequadamente de muitas funções usadas em estatísticas como Exponential Moving Average ou mesmo variação. Falando em média móvel, as redes neurais recorrentes podem aproximar-se adequadamente de que uma rede neuronal de feedforward ou mesmo um único neurônio linear pode produzir uma média móvel usando a técnica de janela deslizante, mas como as redes neurais recorrentes o farão sem X quantidade de camadas ocultas (X sendo o tamanho médio móvel) Também, vamos supor que não sei a função original f. O que acontece para obter a média das últimas 500 entradas e, em seguida, saída um 1 se o seu mais elevado do que 3, e 0 se o seu não. Mas por um segundo, fingir que não sei que, é uma caixa preta. Como seria uma rede neural recorrente aproximada que Nós precisamos primeiro saber quantos timestaps ele deve ter, que nós não. Talvez uma rede LSTM poderia, mas mesmo assim, o que se não é uma simples média móvel, é uma média móvel exponencial eu não acho que mesmo LSTM pode fazê-lo. Ainda pior ainda, e se f (x, x1) que estamos tentando aprender é simplesmente Isso parece muito simples e direto. Pode uma rede neural aprender que eu não vejo como. Estou faltando algo enorme aqui ou são algoritmos de aprendizagem de máquina extremamente limitada Existem outras técnicas de aprendizagem além de redes neurais que podem realmente fazer qualquer um destes O ponto-chave a entender é compacto. As redes neurais (como qualquer outra estrutura de aproximação como polinômios, splines ou Funções de Base Radial) podem se aproximar de qualquer função contínua somente dentro de um conjunto compacto. Em outras palavras, a teoria afirma que, dado: então existe uma rede neural que se aproxima de f (x) com um erro de aproximação menor que epsilon. Em toda parte dentro de a, b. Quanto ao seu exemplo de f (x) x 2. Sim, você pode aproximá-lo com uma rede neural dentro de qualquer intervalo finito: -1,1. 0, 1000. Etc. Para visualizar isso, imagine que você aproxima f (x) dentro de -1,1 com uma função Step. Você pode fazê-lo em papel Note que se você fizer os passos estreitos o suficiente você pode conseguir qualquer precisão desejada. A maneira como as redes neurais se aproximam f (x) não é muito diferente disso. Mas, novamente, não há rede neural (ou qualquer outra estrutura de aproximação) com um número finito de parâmetros que podem aproximar f (x) x 2 para todo x em -,. Resposta Eu entendo redes neurais com qualquer número de camadas ocultas pode aproximar funções não-lineares, no entanto, pode aproximar: A única maneira que eu posso fazer sentido dessa questão é que você está falando sobre a extrapolação. Assim, e. Dado amostras de treinamento no intervalo -1 lt x lt 1 pode uma rede neural aprender os valores corretos para x gt 100. É isso o que você quer dizer Se você tivesse conhecimento prévio, que as funções que você está tentando aproximar são susceptíveis de ser de baixa ordem Polinômios (ou qualquer outro conjunto de funções), então você poderia certamente construir uma rede neural que pode representar essas funções, e extrapolar x2 em todos os lugares. Se você não tem conhecimento prévio, as coisas são um pouco mais difíceis: Existem infinitas muitas funções lisas que se encaixam x2 no intervalo -1..1 perfeitamente, e não há nenhuma boa razão pela qual esperamos x2 para dar melhores previsões do que qualquer outro função. Em outras palavras: Se não tivéssemos conhecimento prévio sobre a função estavam tentando aprender, por que queremos aprender x - gt x2. No reino dos conjuntos de treinamento artificial, x2 pode ser uma função provável, mas no mundo real, provavelmente não é. Para dar um exemplo: Vamos dizer que a temperatura na segunda-feira (t0) é 0, na terça-feira seu 1, na quarta-feira seu 4. Não temos nenhuma razão para acreditar que as temperaturas se comportam como polinômios de baixa ordem, por isso não queremos inferir a partir desses dados Que a temperatura na próxima segunda-feira provavelmente será em torno de 49. Além disso, vamos supor que não sei a função original f, que acontece para obter a média das últimas 500 entradas e, em seguida, saída um 1 se o seu superior a 3 e 0 se não é. Mas por um segundo, fingir que não sei que, é uma caixa preta. Como uma rede neuronal recorrente se aproxima que eu acho que são duas perguntas: Primeiro, uma rede neural pode representar essa função, ou seja, Existe um conjunto de pesos que daria exatamente esse comportamento? Obviamente, depende da arquitetura de rede, mas acho que podemos criar arquiteturas que possam representar (ou pelo menos aproximar) esse tipo de função. Se o seu algoritmo de aprendizagem não ficar preso em um mínimo local, com certeza: Se você tem amostras de treinamento suficiente, qualquer conjunto de pesos que doesnt aproximar sua função dá um erro de treinamento maior Que 0, enquanto um conjunto de pesos que se encaixam na função que você está tentando aprender tem um erro de treinamento0. Portanto, se você encontrar um ótimo global, a rede deve ajustar a função. A razão pela qual eu estava pensando em x2. E médias móveis simples ou exponenciais é especialmente porque é usado um bom negócio na previsão do mercado financeiro na análise técnica. Eu estava esperando que uma rede neural poderia potencialmente aprender os algoritmos e comércio com base neles sem primeiro ter que hard código-los e inserir o seu resultado. No entanto, estou tentando descobrir se uma rede neural pode até mesmo aprender uma função como essa. Eu entendo como x2 não é exatamente útil para a previsão do tempo, e poderia causar a rede para prever 49 graus na próxima segunda-feira, mas I39m certeza de ser capaz de aprender uma função polinomial poderia ser útil Para previsão de preços FOREX, por exemplo. Eu entendo talvez uma arquitetura de rede diferente do que eu tinha em mente poderia ser capaz, mas eu não sei qualquer arquitetura que pode representar f (x, x1) xx1 Eu acho que eu poderia ter sido mal uso da palavra aproximar em vez de representar, mas acredito que você Ainda entendia o que eu estava tentando dizer muito bem. Desculpe, não pude editar meu último post no tempo. Ndash Essam Al-Mansouri Eu entendo redes neurais com qualquer número de camadas ocultas pode aproximar funções não-lineares, no entanto, pode aproximar: Sim, pode. Eu não sei o que faz você pensar que é uma função difícil de aproximar, é muito fácil. Dadas suficientes unidades escondidas uma rede neural pode aproximar qualquer função para uma precisão arbitrária em um intervalo arbitrário. Falando de média móvel, as redes neurais recorrentes podem aproximar-se adequadamente de que sim, ele pode. É novamente um problema muito simples que você parece pensar que é difícil por alguma razão que você não está compartilhando. Você pode ver a solução trivial apenas criando o estado oculto grande o suficiente para conter todo o histórico eo restante da rede para calcular a média do estado oculto recorrente. Nós precisamos primeiro saber quantos timestaps ele deve ter, que nós dont. Isso é um problema de ajuste de parâmetros, estes foram tratados antes. Você pode facilmente procurar por mais informações sobre eles. Estou faltando algo enorme aqui ou são algoritmos de aprendizagem de máquina extremamente limitada Existem outras técnicas de aprendizagem além de redes neurais que podem realmente fazer qualquer um deste Sim, você parece estar perdendo qualquer compreensão real de redes neurais. Sua primeira declaração de compreensão de redes neurais com qualquer número de camadas ocultas pode aproximar funções não-lineares, no entanto, pode aproximar mostra que você realmente não entende as palavras que você está usando. Há uma enorme variedade de tópicos que você poderia estar falhando para entender ou confundir uns com os outros, e ninguém vai ser capaz de ajustá-lo em linha reta em um formato QampA simples. Se você realmente quer entender o que está acontecendo, tomar alguns cursos de pós-graduação em Aprendizado de Máquinas e Redes Neurais em particular. Um bom ponto de partida seria esses vídeos se você já tem o conhecimento perquisite. Este não é o lugar apropriado para ensinar. Pegue um dos muitos livros sobre o assunto e leia isso. Você não deve sequer considerar o tipo de função de ativação ou que há mais de uma unidade por entrada ou que pode haver muitas camadas ocultas (não que elas sejam necessárias, mas ajudem a entender). Raff Edward, você foi rude e menosprezador nas suas respostas simplesmente porque VOCÊ, e não Essam, não entende as limitações teóricas das Redes Neurais. NO, NÃO, NÃO Nenhuma rede neural pode nunca aprender a função f (x) xx Nem pode aprender um número infinito de outras funções, a menos que você assume o impraticável: 1- um número infinito de exemplos de treinamento 2- um número infinito de unidades 3- uma quantidade infinita de tempo para convergir NNs são bons em aprendizagem de baixo nível problemas de reconhecimento de padrões (sinais que, no final, têm algum padrão estatístico que pode ser representado por alguma função contínua), mas thats it Não mais Heres uma dica: tente Para construir um NN que toma n1 entradas de dados (x0, x1, x2. Xn) e retornará true (ou 1) se (2 x0) estiver no resto da seqüência. E boa sorte. Funções infinitas, especialmente aquelas que são recursivas, não podem ser aprendidas. Eles só são Raff Edward entendido mal a minha pergunta. Ele tinha razão ao dizer que as redes neurais podem se aproximar de qualquer função, mas uma parte importante que ele e eu não especificamos corretamente é que ela pode se aproximar de qualquer função quotboundedquot. Isto significa que não pode aproximar f (x) se x tem um alcance infinito, como Panagiotis apontou. Ndash Essam Al-Mansouri Jan 10 às 9: 03 Melhoria dos modelos de média móvel integrada auto-regressiva usando a lógica difusa e as redes neuronais artificiais (RNAs) A previsão das séries temporais é uma área de pesquisa ativa que atraiu considerável atenção para aplicações em uma variedade de áreas. Os modelos ARIMA (Auto-Regressive Integrated Moved Average) são um dos modelos de séries de tempo mais importantes usados ​​na previsão do mercado financeiro nas últimas três décadas. As recentes atividades de pesquisa em previsões de séries temporais indicam que duas limitações básicas diminuem sua popularidade para a previsão de séries temporais financeiras: (a) Os modelos ARIMA assumem que os valores futuros de uma série temporal têm uma relação linear com valores atuais e passados, bem como com ruído branco , De modo que as aproximações por modelos ARIMA podem não ser adequadas para problemas não lineares complexos e (b) os modelos ARIMA requerem uma grande quantidade de dados históricos para produzir resultados precisos. Ambos os achados teóricos e empíricos sugeriram que a integração de diferentes modelos pode ser um método eficaz para melhorar seu desempenho preditivo, especialmente quando os modelos no conjunto são bastante diferentes. Neste artigo, os modelos ARIMA são integrados às Redes Neurais Artificiais (RNAs) e à lógica Fuzzy, para superar as limitações lineares e de dados dos modelos ARIMA, obtendo resultados mais precisos. Os resultados empíricos da previsão dos mercados financeiros indicam que os modelos híbridos exibem uma precisão de previsão efetivamente melhorada para que o modelo proposto possa ser usado como uma alternativa às ferramentas de previsão do mercado financeiro. Auto-Regressivo Média Móvel Integrada (ARIMA) Previsão de séries temporais Redes Neurais Artificiais (RNAs) Lógica fuzzy Mercados Financeiros Taxa de câmbio Autores correspondentes. Tel. 98xA0311xA03912550xA01 fax: 98xA0311xA03915526. Copyright copy 2008 Elsevier B. V. Todos os direitos reservados. Mehdi Khashei nasceu em 1979 em Esfahan, no Irã. Ele estudou engenharia industrial na Universidade de Tecnologia de Isfahan (IUT) e recebeu o mestrado em engenharia industrial em 2005. Ele é autor ou co-autor de cerca de 13 artigos científicos em revistas internacionais ou comunicações para conferências com comitê de revisão. Sua pesquisa atual combina os modelos Auto-Regressive Integrated Moving Average (ARIMA) com Redes Neurais Artificiais (RNAs) e lógica fuzzy com as previsões de séries temporais. Seus interesses de pesquisa incluem modelos computacionais do cérebro, lógica fuzzy, soft computing, aproximadores não lineares e previsão de séries temporais. Mehdi Bijari recebeu seu BSc em engenharia industrial, 1987, Mestrado em planejamento de sistemas, 1990, ambos da Universidade de Tecnologia de Isfahan (IUT), e PhD em engenharia industrial 2002, Sharif University of Technology. É docente no Departamento de Engenharia Industrial do IUT desde 1991. Sua pesquisa está na área de gerenciamento de projetos, simulação, planejamento de produção, métodos meta heurísticos, otimização, previsão de séries temporais e sistemas de informação. Ele publicou vários artigos em planejamento de produção, previsão de séries temporais e otimização. Gholam Ali Raissi Ardali é professor assistente de engenharia industrial na Isfahan University of Technology (IUT). Recebeu Bsc em estatística e informática em 1975, do Instituto de Estatística e Informática, Teerã, Irã, Mestrado em estatística aplicada, 1977, da Universidade de Brunel, Inglaterra, e PhD em tecnologia industrial, 1980, da Universidade de Bradford, Inglaterra. Seus interesses de pesquisa são gerenciamento de qualidade total, controle de qualidade estatística, previsão de séries temporais, redes neurais e gerenciamento da cadeia de suprimentos. Quando temos que fazer uma previsão, os livros nos dizem que o método principal é o modelo de média móvel autorregressiva. Na minha opinião, existe uma outra grande ferramenta, a rede de alimentação em rede neural (FFNN). Então eu acho que nós poderíamos usar duas ferramentas principais: Mínimo de movimento Autoregressive Feed forward rede neural Claro que deve haver diferenças, mas eu não sou um especialista. Quem, tendo experiência suficiente nestes dois métodos, pode explicar-me as diferenças entre estes dois métodos em fazer previsões pediu Feb 20 14 às 14:53

No comments:

Post a Comment