Prévia do material em texto
Livro do Ivan Nunes Silva: Redes Neurais Artificiais para engenharia e ciências aplicadas Livro do Ivan Nunes Silva: Redes Neurais Artificiais para engenharia e ciências aplicadas Cap. 1: páginas 43-44; Cap. 2: páginas 54-55; Cap. 3 - exercícios 6 a 10; Cap. 4 - exercícios 7 a 10. LISTA 1 - RNA Discente: Aden Hercules Pinto de Azevedo Professora: Carolina Watanabe Capítulo 01 Exercício 1 = Apresentação de um conjunto de valores que representam as variáveis de entrada do neurônio. Multiplicação de cada entrada do neurônio pelo seu respectivo peso sináptico. Obtenção do potencial de ativação produzido pela soma ponderada dos sinais de entrada, subtraindo-se o limiar de ativação. Aplicação de uma função de ativação apropriada, tendo-se como objetivo limitar a saída do neurônio. Compilação da saída a partir da aplicação da função de ativação neural em relação ao seu potencial de ativação. Exercício 2 = Seu principal objetivo é limitar a saída do neurônio dentro de um intervalo de valores razoáveis a serem assumidos pela sua própria imagem funcional. Exercício 3 = O tempo de processamento do neurônio artificial é muito superior ao neurônio biológico. Mas, o processamento cerebral é infinitas vezes mais rápido que uma rede neural artificial na maioria dos casos, pois os neurônios da rede neural biológica trabalham com alto grau de paralelismo entre si, ao passo que para os neurônios artificiais este nível de paralelismo é bem limitado, pois a maioria dos computadores é constituída de máquinas tipicamente sequenciais. Exercício 4 = É a variável que especifica qual será o patamar apropriado para que o resultado produzido pelo combinador linear possa gerar um valor de disparo em direção a saída do neurônio. Exercício 5 = Adaptação por experiência: parâmetros internos da rede, tipicamente seus pesos sinápticos, são ajustados a partir da apresentação sucessiva de exemplos (amostras e medidas relacionados ao comportamento do processo. Habilidade de generalização: após o processo de treinamento, a rede é capaz de generalizar o conhecimento adquirido, possibilitando a estimação de soluções que eram até então desconhecidas. Exercício 6 Logística: Saída: valores entre 0 e 1. Possui uma flexão mas continua estritamente crescente. O Beta vai definir se o nível de inclinação vai se aproximar mais do eixo Y ou não. Quanto maior o Beta, maior a aproximação. Quando ele tende ao infinito, ela se aproxima da função degrau. Tangente Hiperbólica: Saída: valores entre -1 e 1. Possui uma flexão mas continua estritamente crescente. O Beta vai definir se o nível de inclinação vai se aproximar mais do eixo Y ou não. Quanto maior o Beta, maior a aproximação. Quando ele tende ao infinito, ela se aproxima da função bipolar. Exercício 7 = Logistica: Em que a é o parâmetro de inclinação da função sigmóide, a qual está associada ao nível de inclinação da função em relação ao seu ponto de inflexão. Sua expressão matemática é dada por: Tangente Hiperbólica: Ao contrário da função sigmóide, o resultado da saída sempre assumirá valores reais entre entre -1 e 1. Sua expressão matemática é dada por: Exercício 8 = Logística: útil para produzir probabilidades em problemas de classificação binária, ou seja, trabalha como pertencer ou não pertencer à determinada classe. Tangente Hiperbólica: boa para ativação de camadas escondidas, pois ela está centrada em zero, não possui tanta extremidade quanto a logística. Sua derivada converge em 0 e mais rapidamente. Exercício 9 = O parâmetro de velocidade de uma rede neural artificial está basicamente relacionado com o número de operações por segundo dos computadores. Considerando um clock da ordem de gigahertz, então um período de processamento dos neurônios artificiais fica na grandeza de nanossegundo. Exercício 10 = Foi verificado que sua aplicação demasiada útil e bem sucedida em diversos setores da sociedade: saúde, economia, transporte, educação, indústria de máquinas, tudo graças a sua capacidade adaptativa, e ao fato de poder induzi-la a agir em prol da solução de casos em um nicho ou problema específico. Capítulo 2 Exercício 1 = Por lote de padrão: os ajustes efetuados nos vetores de pesos das redes e em seus limiares só são efetivados após a apresentação de todo o conjunto de treinamento, pois cada passo de ajuste leva em consideração o total de desvios observados nas amostras de treinamento frente aos respectivos valores desejados para as suas saídas. Padrão por padrão: os ajustes nos pesos e limiares das redes são efetuados após a apresentação de cada amostra de treinamento, portanto, após a execução do passo de ajuste, a respectiva amostra pode ser descartada. Exercício 2 = Não necessariamente, feedforward de camadas múltiplas o número de camadas escondidas e seus respectivos neurônios constituintes dependem, sobretudo, do tipo e da complexidade do problema a ser mapeado pela rede, assim como da quantidade e da qualidade dos dados disponíveis sobre o problema. Exercício 3 = O número de camadas escondidas e seus respectivos neurônios constituintes dependem, sobretudo, do tipo e da complexidade do problema a ser mapeado pela rede, assim como da quantidade e da qualidade dos dados disponíveis sobre o problema. Exercício 4 = Recorrente: Saídas dos neurônios são realimentadas como sinais de entrada para outros neurônios. Realimentação as qualificam para processamento dinâmico de informações. Feedforward: na camada simples, é constituída de uma camada de entrada e única camada de neurônios, que é a própria saída. O fluxo de informações segue sempre numa única direção (unidirecional). Na camada múltipla: Presença de uma ou mais camadas neurais escondidas. Quantidade de camadas escondidas e de neurônios dependem, sobretudo, do tipo e complexidade do problema. Exercício 5 = Podem ser utilizadas em sistemas variantes em relação ao tempo, como previsão de séries temporais, otimização e identificação de sistemas, controle de processos, etc. Exercício 6 = Exercício 7 = O processo de treinamento consiste da aplicação de passos ordenados que sejam necessários para sintonização dos pesos sinápticos e limiares de seus neurônios, tendo-se como objetivo final a generalização de soluções a serem produzidas pelas suas saídas, cujas respostas são representativas do sistemas físico em que estão mapeando. O algoritmo de aprendizagem é o conjunto desses passos ordenados visando o treinamento da rede. Durante o processo de treinamento de redes neurais artificiais, cada apresentação completa das amostras pertencentes ao subconjunto de treinamento, visando, sobretudo, o ajuste dos pesos sinápticos e limiares de seus neurônios, será denominada de época de treinamento. Exercício 8 = No modelo de aprendizagem de máquina supervisionada conseguimos dar os pesos ou calibrar o nível de assertividade e de precisão de um modelo,dessa forma tende a ter uma necessidade de disponibilizar uma tabela de dados(E/S) representativa do processo, também conhecida como tabela atributo/valores. Os pesos sinápticos e limiares são continuamente ajustados diante a aplicação de ações comparativas. Diferente do supervisionado, durante a aplicação de um algoritmo de aprendizado baseado em treinamento, inexistem as respectivas saídas desejadas. Os pesos sinápticos e limiares dos neurônios da rede são então ajustados pelo algoritmo de aprendizado de forma a refletir esta representação internamente dentro da própria rede. Exercício 9 =Treinamento supervisionado: consiste em se ter disponível disponível, considerando cada amostra dos sinais de entrada, as respectivas saídas desejadas. Cada amostra de treinamento é então composta pelos sinais de entradas e suas correspondentes saídas. Comporta como se houvesseum “professor” ensinando para a rede qual seria a resposta correta para cada amostra apresentada. Treinamento com reforço: avaliam constantemente a defasagem de valor entre as respostas produzidas pela rede em relação à respectiva saída desejada. Os algoritmos de aprendizagem utilizados ajustam os parâmetros internos dos neurônios baseando-se em quaisquer informações quantitativas ou qualitativas advindas da interação com o sistema que esta sendo mapeado, as quais são então utilizadas para medir o desempenho do aprendizado. Exercício 10 = Os algoritmos de aprendizado utilizados no treinamento com reforço ajustam os parâmetros internos dos neurônios baseando-se em quaisquer informações quantitativas ou qualitativas advindas de interação com o sistema. O processo de treinamento da rede é realizado por tentativa e erro, pois a única resposta disponível para uma determinada entrada é se é satisfatória ou não. Se for considerada satisfatória, incrementa nos pesos sinápticos e limiares são então gradualmente efetuados visando reforçar esta condição comportamental. Diversos algoritmos que utilizam treinamento com reforço são baseados em métodos estocásticos que selecionam probabilísticamente suas ações de ajustes. Capítulo 03 Exercício 06 = A quantidade de épocas necessárias para a convergência varia em função dos valores iniciais que foram atribuídos ao vetor de pesos {w}, assim como da disposição espacial das amostras de treinamento e do valor especificado para a taxa de aprendizado. Exercício 7 = O resultado vai variar toda vez que o algoritmo for executado, então mesmo tendo as mesmas amostras, o resultado será diferente. Exercício 8 = Se a saída produzida pelo Perceptron está não coincidente com a saída desejada, os pesos sinápticos e limiares da rede serão então incrementados proporcionalmente aos valores de seus sinais de entrada; caso contrário, a saída produzida pela rede é igual ao valor desejado, os pesos sinápticos e limiar permanecerão então inalterados. Este processo é repetido, sequencialmente para todas as amostras de treinamento, até que a saída produzida pelo Perceptron seja similar à saída desejada de cada amostra. Exercício 9 = Não é possível, pois na figura os dados não são linearmente separáveis, e a técnica do perceptron não permite isso. Exercício 10 = Tipicamente, devido às suas características estruturais, as funções de ativação normalmente usadas no Perceptron são a função degrau ou degrau bipolar. Assim, independente da função de ativação a ser utilizada, tem-se apenas duas possibilidades de valores a serem produzidos pela sua saída, ou seja, valor 0 ou 1 se for considerada a função de ativação degrau, ou ainda, valor -1 ou 1 se for assumida a função degrau bipolar. Capítulo 4 Exercício 7 = Exercício 8 = Verdadeira. A rede Adaline não tem relação forte de inicialização dos pesos à luz dos valores finais do hiperplano ideal. O hiperplano de separabilidade sempre será o mesmo. Exercício 9 = Não será pois varia em função da disposição espacial das amostras de treinamento e do valor assumido para a taxa de aprendizado. Exercício 10 = Sim, há necessidade de atualização do operador, devido a variação é a que vai fornecer um indicativo do melhor resultado em que o processo de treinamento está sendo executado. Assim sendo caso erro, o processo minimiza o erro quadrático em relação às amostras disponíveis para o aprendizado em forma decrescente no decorrer das épocas.