HISTÓRICO DAS REDES NEURAIS

 

As Redes Neurais (ANNs, Artificial Neural Networks) se constituem em um tema recente (e explosivo) no primeiro mundo (5 anos para cá) e ainda pouco conhecido no Brasil.

Seus frutos já começam a surgir, propiciando a criação de empresas especializadas em previsões econômicas e financeiras, baseadas no uso dessa nova tecnologia, que simula em computador o comportamento do cérebro humano, e que praticamente aposenta a estatística e os sistemas especialistas (expert systems) nesses campos de aplicação.

As redes neurais se utilizam de uma matemática extremamente complexa, a Teoria dos Sistemas Dinâmicos Não Lineares, que aliás lhe deram um grande impulso. Isto fez com que seu uso ficasse restrito a uns poucos especialistas altamente qualificados, geralmente ligados a universidades, tal como ocorreu nos primórdios da era da informática. No entanto, por ser uma tecnologia muito poderosa na vida das empresas, logo começaram a surgir placas de hardware (processamento paralelo dedicado a redes neurais) e packages (softwares enlatados prontos para uso), permitindo aos executivos se dedicar mais ao uso da ferramenta do que à sua construção. Mas esse caminho nem sempre resultou adequado, podendo ser necessário elaborar outro tipo de rede para uma dada aplicação.

Mas só o conhecimento das ANNs não basta para resolver os problemas do mundo real. Dependendo da aplicação em vista, também tem sido necessário a colaboração de outras áreas para a boa utilização das redes: Psicologia, Neurologia, Neurolinguística, Teoria do Caos, Geometria Fractal, Teoria dos Perceptrons, Algoritmos Genéticos, Fuzzy Logic e Teoria da Catástrofe.

A origem das ANNs se encontra em um estudo do psicólogo Donald Hebb, em seu livro Organization of Behavior, de 1949, onde descreveu pela primeira vez o funcionamento quantitativo da sinapse e do processo de treinamento humano.

A idéia foi desenvolvida por Rosemblatt, do MIT (USA) e publicada em seu Perceptrons (o modelo matemático da sinapse humana) de 1957. Mas, em 1969, Minsky, em outra obra também com o mesmo título, mostrou que o futuro desse modelo não era muito promissor, devido às grandes dificuldades da matemática envolvida, bem como aos poucos recursos computacionais disponíveis. Essa colocação encerrou a primeira onda das ANNs (1949-1969).

O assunto ficou praticamente esquecido (a segunda onda), até que, em 1986, (início da atual terceira onda) um professor de psicologia da Stanford University, David E. Rumelhart, e seu colega James L. McClelland, professor de psicologia da Carnegie-Mellon University, publicaram um famoso livro, Parallel Distributed Processing: Explorations in the Microstructure of Cognition (vol.1: Foundations, vol.2: Psychological and Biological Models), onde apresentaram um modelo matemático e computacional que, pela primeira vez, propiciou o treinamento supervisionado dos neurônios artificiais. Era o back-propagation algoritm, um algoritmo de otimização global sem restrições. Tornando a rede operacional e prática, deu-se um explosivo desenvolvimento dessa área.

Mas logo começaram a surgir alguns problemas. O treinamento da rede era muito complexo e demorado. Novos algoritmos de otimização dos pesos das sinapses, como o do Gradiente Conjugado de Polak (Computational Methods in Optimization) e da Simulated Annealing (Practical Neural Network Recipes in C++, de Timothy Masters) tornaram o treinamento supervisionado mais rápido. Também se utilizam os recentes algoritmos genéticos na otimização: os pesos das sinapses vão sendo escolhidos de acordo com um processo darwiniano de seleção natural; somente sobrevivem as redes (organismos) que manifestarem um comportamento adequado aos objetivos estabelecidos para a rede. As demais são deletadas.

O treinamento das ANNs requer uma enorme massa de dados históricos, já que a aprendizagem se dá pela repetida (e até enfadonha) apresentação de exemplos passados (patterns) à rede. E o tempo de treinamento cresce muito com o número de patterns e de hidden layers. Para simplificar, lança-se mão de uma nova técnica, a Fuzzy Logic (lógica vaga ou aproximada) criada nos EUA mas desenvolvida no Japão (os americanos não levaram a sério essa nova teoria, que desmontava, ao mesmo tempo, os fundamentos da Teoria da Probabilidade e da Lógica Aristotélica!). Através da Fuzzy Logic é possível reduzir o volume dos dados, fuzzyficando-os e usando-os assim para treinar a rede. Após o aprendizado, os neurônios começam então a ter um comportamento condizente com o treinamento recebido, mas suas respostas são fuzzy. Realiza-se, então, uma defuzzyficação, obtendo de volta dados mais detalhados para os usuários da rede.

Um outro problema que surgiu com as ANNs foi o comportamento caótico que, por vezes, assumem. Isto não deve ser novidade, pois, tratando-se de um modelo dinâmico e não-linear, o caos é sempre possível. Isso requer uma abordagem da Teoria do Caos, da Geometria Fractal e da Teoria da Catástrofe.

Mas, a despeito de tudo isso, o uso das ANNs tem crescido de forma explosiva nos países desenvolvidos, abrindo às empresas uma tecnologia revolucionária na tomada de decisão executiva. Não é difícil prever que, dentro de mais alguns anos, as empresas que ainda não estiverem fazendo uso dessa técnica fatalmente acabarão por perder competitividade no mercado, com suas naturais consequências. Aliás, o mesmo que ocorre com o uso da informática no mundo atual.