sábado, 19 de janeiro de 2013

RESUMO DA ORIGEM E DA EVOLUÇÃO DAS CIÊNCIAS DA COMPUTAÇÃO, DA INFORMAÇÃO E DA COMUNICAÇÃO - TÓPICO 3 - PARTE 1


Blog “Ciências Exatas Contemporâneas”, de autoria de Álaze Gabriel.


Autoria:
Mestres, Doutores e Livres Docentes nas áreas de Ciências da Informação, Ciências da Computação e Educação da Pontifícia Universidade Católica do Rio Grande do Sul.


HISTÓRIA DA COMPUTAÇÃO:  O CAMINHO DO PENSAMENTO E DA TECNOLOGIA

1  INTRODUÇÃO

A ciência normalmente é cumulativa, isto é, constroem-se instrumentos mais poderosos, efetuam-se medidas mais exatas, precisam-se melhor e ampliam-se os conceitos das teorias, e assim por diante. Embora os paradigmas possam mudar, as pesquisas normalmente evoluem com base em resultados do passado, que se constituem em fundamentos de um desenvolvimento posterior. O cientista estará mais seguro em suas pesquisas e mais preparado para novos desafios se souber como seu assunto específico evoluiu historicamente, quais as dificuldades maiores, as soluções encontradas e os problemas pendentes.
Nas ciências mais tradicionais −Filosofia, Matemática, Física, Biologia, etc. − existem sempre estudos de história junto a muitos outros dedicados a pensadores, inventores e conquistadores de primeira, segunda ou terceira grandeza, além de inúmeras monografias. No caso da Computação, é necessário que apareçam trabalhos para servir de base e referência aos estudantes, novos pesquisadores e aqueles interessados pelos aspectos teóricos que estão por detrás dessa tecnologia que domina o cotidiano neste fim e início de milênios.
A História da Computação está marcada por interrupções repentinas, por mudanças inesperadas e imprevistas, tornando-se difícil a visão da evolução dos computadores mediante uma mera enumeração linear de invenções-nomes-datas. O desejo de conhecer as vinculações que o trabalho de determinados homens estabeleceram no tempo vem acompanhado do impulso de compreender o peso desses atos no conjunto da História da Computação. Buscar uma compreensão dos fatos através dos acontecimentos que o precederam é um dos principais objetivos que estará presente neste estudo da História da Computação.
A computação é um corpo de conhecimentos formado por uma infra-estrutura conceitual e um edifício tecnológico onde se materializam o hardware e o software. A primeira fundamenta a segunda e a precedeu. A teoria da computação tem seu desenvolvimento próprio e independente, em boa parte, da tecnologia. Essa teoria baseia-se na definição e construção de máquinas abstratas, e no estudo do poder dessas máquinas na solução de problemas. A ênfase deste livro estará nessa dimensão teórica, procurando mostrar como os homens, através dos tempos, buscaram elaborar métodos efetivos para a solução de diversos tipos de problemas.
A preocupação constante de minimizar o esforço repetitivo e tedioso produziu o desenvolvimento de máquinas que passaram a substituir os homens em determinadas tarefas. Entre essas está o computador, que se expandiu e preencheu rapidamente os espaços modernos pelos quais circulam as pessoas. A partir do aparecimento da noção de número natural, passando pela notação aritmética e pela notação mais vinculada ao cálculo algébrico, mostra-se como apareceram regras fixas que permitiram computar com rapidez e precisão, poupando, como dizia Leibniz, o espírito e a imaginação. “Descartes acreditava no emprego sistemático do cálculo algébrico como um método poderoso e universal para resolver todos os problemas. Esta crença juntou-se à de outros e surgem as primeiras idéias sobre máquinas universais, capazes de resolver todos os problemas. Esta era uma crença de mentes poderosas que deixaram obras respeitáveis na Matemática e nas ciências em geral” [CO98].
Também é intenção do presente estudo procurar compreender e estabelecer as diretrizes para uma disciplina de História da Computação, mediante a seleção das idéias, teorias e conceitos que ajudaram os homens em sua busca da automatização dos processos aritméticos e que conduziram à tecnologia dos computadores.
No Brasil ainda não existem livros que tratem do assunto História da Computação, observando-se uma lacuna cultural que países do primeiro mundo preocupam-se em preencher já faz alguns anos. Pretende-se que este trabalho seja uma contribuição nesse sentido e um ponto de partida para novos estudos de História, pois são muitos os campos que poderão ser abertos.

1.1  Ordenação dos assuntos

O desenvolvimento deste livro estará apoiado na seguinte seqüência de capítulos:

• Uma reflexão sobre a História
• Motivações para se estudar a História da Computação
• Evolução dos conceitos
• Pré-História tecnológica
• As primeiras máquinas
• A revolução do hardware e do software
• A disseminação da cultura informática e o controle das informações
• Conclusão

Primeiramente será tratado o tema da História: constatar sua existência e necessidade, aspectos da evolução da ciência histórica e tocar particularmente o tema da História da Ciência, que se relaciona com o presente trabalho. Logo a seguir virá uma breve explanação de motivos que incentivam a aprofundar no estudo do tema específico da História da Computação.
Em Evolução dos conceitos será mostrado o desenvolvimento dos conceitos teóricos que formaram a base para o surgimento da Computação. O caminho a ser usado será o da História da Matemática, desde os seus primórdios por volta do ano 4.200 a.C. – época provável de um calendário solar egípcio [Boy74]–, passando pelas contribuições das culturas babilônica, hindu, chinesa, árabe e grega, pelo ábaco, pela primeira máquina de calcular, até Boole, Hilbert, Turing e von Neumann, entre outros, nos anos 30, 40 e 50 do século XX. A partir daí, a Computação constrói a sua própria história, embora os laços com a matemática continuem sempre muito estreitos.
Por Pré-História tecnológica entende-se a enumeração de alguns dispositivos analógicos primitivos, as primeiras tentativas de se construir um dispositivo de cálculo com Leibniz, Pascal, Babbage, Hollerith, etc., o surgimento dos dispositivos analógicos modernos – planímetros, analisadores harmônicos, etc. – e os primeiros 'computadores' eletromecânicos por volta dos anos de 1930 e 1940.
Em As primeiras máquinas ver-se-á a construção dos primeiros dispositivos computacionais e os primeiros passos que são dados nesse campo essencial da Computação
Nestes últimos dez anos vários livros já foram publicados em outros idiomas. que são as Linguagens de Programação. Já estava formada a infra-estrutura conceitual necessária e a tecnologia já possibilitava o desenvolvimento de dispositivos mais poderosos e precisos para a execução de cálculos.
Sob o título de A revolução do hardware e do software abordar-se-á o desenvolvimento posterior da Computação, os avanços da Inteligência Artificial, das Linguagens de Programação e Arquitetura de Computadores. Segue-se também uma análise da Computação como uma Ciência, da Teoria da Computação, das bases matemáticas para Análise de Algoritmos, e do surgimento do tema da Complexidade Computacional.
No capítulo A disseminação da cultura informática e a proliferação das informações dois assuntos serão colocados. O primeiro tratará do impacto social do desenvolvimento da Computação e da necessidade de uma análise mais cuidadosa dos dados que os computadores tornaram disponíveis ao homem. O segundo fará algumas considerações sobre alguns limites do uso dos computadores.

2  UMA REFLEXÃO SOBRE A HISTÓRIA

Uma curiosidade de explicar e compreender o mundo é o estímulo que leva os homens a estudarem o seu passado. Na língua latina a palavra história expressa dois conceitos distintos: plenitude de suceder e o conhecimento que se possui desse suceder. Sua origem procede de certa raiz grega que significa inquirir, com inclinação à curiosidade [Fer85].
Plenitude de suceder, conhecimento desse suceder, recuperação dos valores antigos..., palavras que significam algo mais que uma mera enumeração de nomes, lugares, datas, números, etc. Consiste antes de tudo em um debruçar-se sobre o passado e formular-lhe perguntas para se apropriar do seu legado (da “tradição”, de traducer e, entregar).
Ninguém produz por si mesmo os conhecimentos de que necessita para sobreviver em meio à sociedade na qual nasce; a grande maioria chega como algo adquirido, que se recebe pela interação com o meio ambiente. Desde o instante em que o homem se dá conta do mundo e de si mesmo, percebe-se rodeado de instituições e tradições que vive e atualiza de um modo natural, sem se dar conta de que foi forjado nesse entorno, com atitudes e pontos de vista tão arraigados em seu modo de ser, em sua psicologia, que nada lhe parece estranho ou desconhecido. Somente quando o homem sai do seu entorno vital e entra em contato com novas superfícies de valores, tradições, costumes, é que começa a compará-los com os seus e a se perguntar reflexivamente sobre tais coisas, pelas verdades de umas e outras.
A história é parte dessa necessidade humana de refletir: é o desejo de explicar a origem e a verdade das próprias instituições, quem ou qual acontecimento as estabeleceu. Para responder sobre sua existência atual e conhecer a si mesmo o homem tem de mergulhar no seu passado, perguntando às gerações anteriores por que fizeram essas instituições e não outras, por que surgiram esses precisos costumes e atitudes, por que ele tem essa herança cultural, e assim por diante. Por possuir uma herança é que cada homem é um historiador em potencial. Assim como em cada homem há uma evolução biológica necessária, há também a manutenção de uma identidade ao longo das várias etapas desse desenvolvimento biológico, que nos distinguem e nos tornam únicos, sendo fator de compreensão do modo pessoal de ser. Com a história buscamos essa nossa identidade para compreender o momento presente.
E isto pode e deve ocorrer sob pontos de vista específicos: sociais, psicológicos, filosóficos e tecnológicos. Paul M. Veyne fala ainda da história como compreensão, contrapondo o uso deste termo ao uso do termo explicação. Em seu sentido mais forte explicar significa “atribuir um fato a seu princípio ou uma teoria a outra mais geral” como fazem as ciências ou a filosofia. Nesse caso, a história seria uma difícil conquista porque a ciência só conhece leis, sistemas hipotético-dedutivos, e no mundo da história reinam, lado a lado, a liberdade e o acaso, causas e fins, etc.
Para Veyne a história apresenta um caráter acientífico no sentido de que é difícil buscar princípios universais que tornem os acontecimentos inteligíveis, ou achar mecanismos de causa e efeito para se poder deduzir, prever. “(...) a Revolução Francesa se explica pela subida de uma burguesia capitalista: isto significa, simplesmente, (...) que a narração da revolução mostra como essa classe ou seus representantes tomaram as rédeas do estado: a explicação da revolução é o resumo desta e nada mais. Quando solicitamos uma explicação para a Revolução Francesa, não desejamos uma teoria da revolução em geral, da qual se deduziria a de 1789, nem um esclarecimento do conceito de revolução, mas uma análise dos antecedentes responsáveis pela explosão desse conflito (...)”. Busca-se portanto uma compreensão dos fatos através dos acontecimentos que o precederam.
Toda verdadeira investigação edifica-se estabelecendo-se com a máxima exatidão possível o já sabido, para depois poder perguntar com exatidão, de maneira que se possam encontrar respostas. Só partindo da informação adquirida podem ser feitas perguntas capazes de ter resposta, e não perguntas deslocadas, no vazio, que nunca poderão ser respondidas. É necessário caminhar passo a passo, um após o outro: em toda busca que se queira chegar a algo é preciso estabelecer com precisão o problema, planejar possíveis linhas de ataque conceitual e valorar as aparentes soluções.
Tal enfoque será um dos que estarão presentes neste estudo crítico da História da Computação através de uma visão conceitual. Pode-se aplicar a essa história a mesma afirmação que faz Thomas Khun sobre a História da Ciência: está marcada por interrupções repentinas, por inesperadas e imprevistas mudanças, exigindo modelos de conhecimento que supoêm alterações inesperadas no processo do seu desenvolvimento ([RA91], vol III). Em função desse fato torna-se difícil a visão da evolução dos computadores mediante uma mera enumeração linear de invenções-nomes-datas, forçando-nos a tentar compreender as forças e tendências que, no passado, prepararam o presente.O desejo de conhecer as vinculações que os atos de determinados homens estabeleceram no tempo vai acompanhado do impulso de compreender o significado de tais atos no conjunto da História da Computação.

2.1  A História e suas interpretações

Desde o seu nascimento nas civilizações ocidentais, tradicionalmente situado na antigüidade grega (Heródoto, século V a.C. é considerado por alguns como o “pai da história”), a ciência histórica se define em relação a uma realidade que não é construída nem observada, como na matemática ou nas ciências da natureza, mas sobre a qual se “indaga”, se “testemunha”. Este aspecto da história-relato, da história-testemunho, jamais deixou de estar presente no desenvolvimento da ciência histórica.
Se a história é ou não ciência é uma questão muito disputada entre vários autores e tema ainda polêmico. No tratado História e Memória do medievalista francês Jacques Le Goff [Gof94], capítulo História, item 1, desenvolve-se uma panorâmica geral dessas correntes e tendências existentes entre historiadores e teóricos da história.
Obviamente não se quer tirar aqui a importância da datação. Como diz Le Goff, “o historiador deve respeitar o tempo que, de diversas formas, é condição da história e que deve fazer corresponder os seus quadros de explicação cronológica à duração do vivido. Datar é, e sempre será, uma das tarefas fundamentais do historiador, mas deve-se fazer acompanhar de outra manipulação necessária da duração −a periodização −para que a datação se torne historicamente pensável”.
Não se dispensará este trabalho de ter uma cronologia, a partir da qual se possa situar no tempo os homens e os fatos mais representativos de uma determinada corrente de idéias ou descobertas. No anexo Ihá uma tabela da evolução conceitual e tecnológica por data.
A partir do momento em que se começaram a reunir documentos escritos, a historiografia começa a ultrapassar os limites dopróprio século abrangido pelos historiadores, superando também as limitações impostas pela transmissão oral do passado. Com a construção de bibliotecas e a criação de arquivos iniciou-se o desenvolvimento de métodos de crítica. Sobretudo depois do final do século XVII, estabeleceram-se os fundamentos para uma metodologia aplicada à história, sob uma radical exigência de submeter todas as investigações à razão crítica. A segunda metade do século XIX impôs o paradigma de uma história que a partir daí chamar-se-á paradigma “tradicional” ou paradigma “rankeano”, derivado do nome do historiador Leopold von Ranke (1795-1886). Ranke propunha apresentar os fatos tais como o “foram na realidade” e os historiadores europeus criaram os grandes esquemas políticos e institucionais. Características desse paradigma, conformePeter Burke, historiador de Cambridge:

  a história diz respeito essencialmente à política;
  é essencialmente uma narrativa de acontecimentos;
• “visão de cima” no sentido de estar concentrada nos feitos dos grandes homens;
  baseada em documentos;
  deveria perguntar mais pelas motivaçõesindividuais do que pelos movimentos
coletivos, tendências e acontecimentos;
  a história é objetiva, entendendo-se por issoa consideração do suceder como algo externo ao historiador, suscetível de ser conhecido como objeto que se põe diante do microscópio, almejando uma neutralidade.

Ainda no século XIX algumas vozes soaram discordantes desse paradigma histórico. Entre outras coisas devido ao seu caráter reducionista, onde situações históricas complexas são vistas como mero jogo de poder entre grandes homens (ou países), e também em função daquilo que se poderia chamar a “tirania” do fato ou do documento, importantes sem dúvida, mas que não deve levar a abdicar de outros tipos de evidências. Como relata Peter Burke, “Michelet e Burckhardt, que escreveram suas histórias sobre o Renascimento mais ou menos na mesma época, 1865 e 1860 respectivamente,tinham uma visão mais ampla do que os seguidores de Ranke. Burckhardt interpretava a história como um corpo onde interagem três forças −Estado, Religião e Cultura −enquanto Michelet defendia o que hoje poderíamos descrever como uma ‘história da perspectiva das classes subalternas’(...)”. Outros opositores da “história política” foram os historiadores da evolução das sociedades sob o ponto de vista econômico e os fundadores da nova disciplina da sociologia, que começaram a surgir na França.
Dois fatos, no entanto, ocorridos nas quatro primeiras décadas do século XX acabariam por sacudir e arruinar a confiança nos princípios rankeanos, O primeiro foi a rápida difusão do marxismo, que renuncia à neutralidade, afirmando que o materialismo dialético é a única filosofia científica válida para a interpretação da história; o segundo, a grande crise do ano de 1929, que revelou até que ponto os fatores econômicos e sociais podem exercer uma ação decisiva.
É desse período o nascimento da revista francesa Annales, considerada uma das mais importantes propulsoras da chamada Nova História. Nova História é um termo que data de 1912, quando o estudioso americano James Harvey Robinson publicou um livro com esse título. Segundo Robinson, história inclui todo traço e vestígio de tudoo que o homem fez ou pensou desde seu primeiro aparecimento sobre a terra. Em relação ao método, a ‘nova história’ vai servir-se de todas aquelas descobertas que são feitas sobre a humanidade, pelos antropólogos, economistas, psicólogos e sociólogos [Bur92b].
Surgiu a idéia de uma história total, com a qual quiseram os autores da Escola dos Annales advertir que, frente à unilateralidade e reducionismo do materialismo dialético, a compreensão do passado exige que todos os dados – políticos e institucionais, ideológicos, econômicos, sociais, da mentalidade humana, etc. – fossem fundidos e integrados para conseguir uma explicação correta. Uma tarefa árdua, na prática quase impossível, mas que marca um ideal, uma direção, uma meta que é preciso atingir.
Surgiram ainda outros enfoques como, por exemplo, a história do ponto de vista quantitativo, durante certo tempo em moda na Europae Estados Unidos, que procura utilizar fontes quantitativas, métodos de contagem e até modelos matemáticos na sua pesquisa histórica, ou as histórias que abrangem umdeterminado campo da vida humana como a história da arte ou a história das ciências.
O panorama atual, de acordo com os historiadores, é o de uma história fragmentada, detectando-se alguns sinais de busca de uma síntese. Ainda se está a uma longa distância da “história total”. Na verdade, é difícil acreditar que esse objetivo possa ser facilmente alcançado – ou até que será alcançado –, mas alguns passos já foram e estão sendo dados em sua direção. Paralelamente a todos esses esforços, surgiram também os teóricos da história, que se esforçaram ao longo dos séculos para introduzir grandes princípios que pudessem fornecer linhas gerais de compreensão para a evolução histórica. A filosofia da história é o estudo da realidade “latente”, ou melhor, do “pano de fundo” dos fatos históricos. Qual é a natureza, por exemplo, das crises de crescimento e decadência de uma civilização, quais foram as causas? Sendo a história não a simples crônica queapresenta os fatos de um modo minucioso, mas sim sua investigação, que se esforça por compreender os eventos, captar relações, selecionar fatos, como fazer isso, qual é a estrutura essencial da realidade histórica?
A filosofia da história – termo temido por muitos autores porque poderia supor apriorismos, preconceitos, idealismos – responderá basicamente a duas questões fundamentais:

  o que são os fatos históricos − historiologia morfológica;
  para qual fim se dirigem − historiologia teleológica.

2.2  A História da Ciência

O nascimento e o desenvolvimento da ciência experimental, a partir do século XVII, estiveram freqüentemente acompanhados de polêmicas filosóficas: sobre o alcance do raciocínio científico, seus limites, o que é a verdade na ciência, etc. Diferentes posturas filosóficas da época moderna tentaram solucionar tais polêmicas, mas foi no século XX que realmente se chegou a constituir uma filosofia da ciência como disciplina autônoma. Do Círculo de Viena em 1929, passando por Karl Popper, Thomas Khun, Imre Lakatos, Paul Feyerabend, Wolfang Stegmüller,entre outros, protagonizou-se um intenso debate em torno do valor do conhecimento
Para este trabalho, o que interessa é que toda essa movimentação em torno da racionalidade da ciência também teve seu reflexo na teoria da história, pelas novas epistemologias científicas que foram surgindo. Osdebates trouxeram para o primeiro plano a questão da função da historiografia da ciência e alguns problemas teóricos relativos a essa historiografia. A importância de uma história da ciência que vá além da história episódica ou dos resultados obtidos ficou ressaltada. Em ([RA91], volume III)resume-se quais seriam as funções da História da Ciência:

  sendo a ciência fator de história, não se pode entender o desenvolvimento dessa história, especialmente da época moderna e da época contemporânea, se não conhecermos a História da Ciência e da Tecnologia;
  além de ser fator de história, a ciência também é fator de cultura: assim, estará vedada a compreensão do desenvolvimento da cultura mais ampla se não se compreende a História da Ciência e seu entrelaçamento e condicionamento recíproco com a História da Filosofia, as concepções morais, políticas e outras;
  o conhecimento da História da Ciência é necessário para o trabalho do cientista, porque o pleno entendimento do conteúdo de uma teoria pode ser obtido mediante o confronto dessa teoria com outras, e essas outras teorias devem ser buscadas onde quer que estejam disponíveis, tanto no presente como no passado;
  a História da Ciência se revela como mais um ingrediente para a didática das ciências, tanto no que se refere à motivação do aprendizado, como no que se refere à educação no antidogmatismo, isto é, no reconhecimento do erro como uma fonte científica de aperfeiçoamento da teoria;
  a História da Ciência possibilita  uma maior consciência das normas metodológicas necessárias ao trabalho de pesquisa.

Os problemas do como realizar essas funções são complexos, bastando lembrar as diferentes escolas de história. De qualquer maneira, é a disciplina da história que é revitalizada, despertando a capacidade do homem de assumir o seu passado e a partir dele dar respostas criadoras aos novos problemas que aparecem. É muito significativo que entre os sintomas da decadência de uma cultura ou de uma ciência esteja precisamente isto: o repúdio ao passado que as valorizava.
Para aprofundar no assunto, em há uma síntese das discussões e evolução das polêmicas.

2.3  Enfoque histórico adotado

A história não é exclusivamente caos ou acaso: existe no comportamento humano um certo grau de ordem e padrão observáveis de uma regularidade parcialmente previsível.

The Social Sciences in Historical Study (vários autores)

Uma das intenções do presente estudo é procurar compreender e estabelecer as diretrizes para uma disciplina da História da Ciência, a História da Computação, através da seleção das idéias, teorias e paradigmas  que ajudaram os homens em sua busca da automatização dos processos aritméticos e queconduziram à tecnologia dos computadores.
Interessa portanto o enfoque teleológico, citado anteriormente (A história e suas interpretações). A historiologia teleológica aplica-se na interpretação, de trás para frente, da conexão concreta do curso histórico. Trata-se de compreender duas coisas: a primeira, que na série confusa dos fatos históricos podem-se descobrir linhas, facções, traços, em suma, uma 'fisionomia', conforme diz Ortega y Gasset; a  segunda, tentar mostrar um sentido para a história, desde a perspectiva do seu fim. Conforme outro historiador, Toynbee, o ponto de partida da interpretação histórica, como o de qualquer tarefa intelectual, é o pressuposto de que a realidade tem algum significado que nos é acessível pelo processo mental da explicação. Considera-se que a realidade, ainda que não totalmente, tem um sentido, isto é, que há um ‘acúmulo de ordem’nas relações entre os milhares de fenômenos observados na realidade e dissecados pela nossainteligência. “Todo raciocínio pressupõe a existência de conexõesna natureza, ... e seu único objetivo é determinar que elementos essas conexões reúnem”.
Na abordagem teleológica, a história não é o fato meramente enumerado, mas organizado, selecionado, relacionado. Como diz Kenneth O. May, “de modo semelhante à física, nós não pensamos que o mero registro de uma observação por um físico é Física. Isso se torna Física quando é interpretado, organizado, relacionado com outras partes da Física.
Do mesmo modo, o conhecimento cronológico torna-se história somente quando ele é selecionado, analisado, acompanhado da sua compreensão dentro de um contexto mais amplo. Significa que a história dos computadores deveria ser compreendida não do ponto de vista 'histórico', mas em relação ao computador propriamente. Deveria dar a perspectiva, através das idéias, sobre o que o futuro desenvolvimento deveria ser, ao que as futuras linhas de desenvolvimento devem chegar, e assim por diante” [May80].
O conhecimento histórico, por sua própria natureza, é inseparável do historiador, pois é este que, da documentação coletada, destaca o singular, elevando o fato à condição de histórico. Procurou-se, então, registrar neste livro, tecendo um fio de história, os fatos conceituais, com a mínima periodização e datações possíveis. Por fatos conceituais entendam-se aqui as idéias e conceitos relevantes que fundamentaram a incansável busca pela mecanização do raciocínio. Entre estes estarão: Álgebra, Sistema Axiomático, Lógica Matemática, Sistema Axiomático Formal, Computabilidade, Máquina de Turing, Tese de Church, Inteligência Artificial, e outros mais.
Se bem que em outro contexto, pois tinha uma outra linha de pensamento historiográfico, mas que serve também para o enfoque adotado no trabalho. É uma história que se vai tornando incrivelmente complexa, conforme vai avançando no tempo. Os trabalhos isolados dos precursores da Física e da Matemática, e mais recentemente da própria Ciência da Computação,justamente por causa de seu isolamento, são relativamente fáceis de discernir. Mas a partir de 1950, com a proliferação das pesquisas nas universidades, nos grandes laboratórios, nas indústrias −privadas ou estatais −, observou-se um desenvolvimento acelerado da informática. A Ciência da Computação avançou em extensão e profundidade, tornando-se difícil até a tarefa de enumeração dos fatos. Surge a tentação de particularizar mais ainda. Pode-se falar por exemplo de uma história dos microcomputadores, tomando o ano de 1947 quando três cientistas do Laboratório da Bell Telefonia, W. Shockley, W. Brattain e J. Bardeen, desenvolveram sua nova invenção sobre o que seria um protótipo do transistor e de como, a partir daí, ano após ano, hardware e software progrediram e criaram novos conceitos,estruturas, em ritmo vertiginoso. E assim também no desenvolvimento das Linguagens de Programação, dos Compiladores, da Teoria da Computação, da Computação Gráfica, da Inteligência Artificial, da Robótica, e outras áreas. Começa a tornar-se difícil separar o queé significativo dentro do enfoque crítico adotado.
Surge o problema da delimitação das fronteiras, pois as várias especialidades se
misturam muitas vezes, apesar de ter um corpo central definido. Para se atender à finalidade de uma História da Computação de caráterconceitual, este trabalho estará limitado prioritariamente ao campo das idéias, acenando para outros campos quando necessário se sua repercussão atingir a linha de evolução seguida.
De qualquer modo, embora enfatizando o aspecto do pensamento – o que se tinha em mente quando algo foi feito ou definido, e o que este algo fundamentará mais tarde, será necessário o estabelecimento de alguns marcos temporais. Os acontecimentos da história produzem-se em determinados lugares e tempos. Esta pontualização possibilitará ir unificando esse suceder histórico específico deque se está tratando, em um processo único que mostre claramente a mudança, o desenvolvimento e o progresso.
Não se dispensará absolutamente o uso das datas assim comodos fatos tecnológicos que possam ser considerados verdadeiras mudanças de paradigma. Não se deve estranhar o recurso à História da Matemática. Aliás é preciso dizer que, no início, pelo menos nos círculos acadêmicos, a Computação apareceu como algo dentro dos Departamentos de Matemática, e ainda hoje,em muitas Universidades, a Ciência da Computação aparece como um Departamento de um Instituto de Matemática. Dentre os
diversos tópicos científicos sujeitos à investigação, a Matemática é o que melhor combina um caráter abstrato com um uso universal em outros campos do conhecimento.
Sua relação com a Computação é muito estreita, quase que inseparável. As primeiras máquinas construídas foram resultado de buscas por parte dos membros dessa comunidade do conhecimento. Pense-se na Robótica por exemplo, onde estão incluídas a Inteligência Artificial, as Linguagens de Programação, a Computação Gráfica, etc.
No anexo I encontra-se uma tabela cronológica dos acontecimentos conceituais e tecnológicos, que dará uma visão mais geral da evolução da História da Computação.

3.  MOTIVAÇÕES PARA SE ESTUDAR A HISTÓRIA DA COMPUTAÇÃO

Uma vez apontada a importância e necessidadedo estudo da história em geral e, mais especificamente, da história da ciência e datecnologia, fica fácil perceber que o estudo da História da Computação é um interessante relevodentro da vasta paisagem do conhecimento científico. Basta lembrar que o impacto dessa tecnologia na nossa sociedade é imenso e nossa dependência dela cada vez maior. Seguem abaixo outros fatores motivadores para esse estudo.

3.1  Necessidade de discernir fundamentos

Comparada com outras áreas, a Ciência da Computação é muito recente. Mas, nestes poucos anos (pode-se apontar a Segunda Guerra Mundial como um marco inicial, quando efetivamente se construíram os primeiros computadores digitais) o avanço da Computação foi exponencial, abrindo-se em umgrande leque de tecnologias, conceitos, idéias, transformando-se em uma figura quase irreconhecível. Atualmente falar de estado da arte na Computação tornou-se sem sentido: sob que ótica, perspectiva, campo ou área?
Apesar da sua recente irrupção na história contemporânea, a partir dos anos 40 do século XX, ela já se tornou complexa, ampla, geradora de novos enfoques, tornando-se um verdadeiro desafio a quem queira entendê-la e traçar sua evolução.
Ao mesmo tempo, cada nova geração de informatas depara-se com um duplo problema: a impossibilidade de ter uma visão global sobre todo o conhecimento precedente e, mais acentuadamente ainda, a história do desenvolvimento das várias especialidades. Não estão individualizados os eventos, por vezes complexos, que antecederam o saber atual e também não se possui um quadro que os reúna, para se ter uma idéia geral, coerente e significativa. A evolução tecnológica se nos apresenta abrupta, através de saltos descontínuos, e todo o trabalho que antecede cada etapa aparece coberto por uma camada impenetrável de obsolescência, algo para a paleontologia ou para os museus, como se nada pudesse ser aprendido do passado.
O resultado é um empobrecimento do panorama atual da realidade da informática. Não se estabelecem conexões entre os vários campos da Ciência da Computação, caindo-se facilmente no utilitarismo. As camadas mais profundas dos conceitos não são atingidas, o conhecimento torna-se bidimensional, curto, sem profundidade.
Junto a isso, cedendo talvez a um imediatismo ou deixando-se levar por uma mentalidade excessivamente pragmática de busca de resultados, há uma forte tentação de se estabelecerem ementas para o estudo da Ciência da Computação preocupando-se mais com determinados produtos −linguagens, bancos de dados, sistemas, aplicativos, etc. −e pouco se insiste na fundamentação teórica.
Os matemáticos aprendem aritmética e teoria dos números, pré-requisitos sem os quais não se evolui no seu campo do saber; osengenheiros, cálculo diferencial, física; os físicos trabalham arduamente na matemática, e assim por diante. Quais os fundamentos correspondentes na Computação? Conhece-se a Álgebra Lógicade George Boole, um matemático que buscando relacionar o processo humano de raciocínio e a Lógica Matemática, desenvolveu uma ferramenta para os futuros projetistas de computadores?
Sabe-se que a revolução da Computação começou efetivamente quando um jovem de 24 anos, chamado Alan Mathison Turing, teve a idéia de um dispositivo teórico para buscar a resposta a um desafio do famoso matemático David Hilbert – um dos primeiros a falar sobre computabilidade, e que em um ‘journal’ de matemática comentou aos seus colegas que era possível computar na teoria dos números, por meio de uma máquina que teria armazenadas as regras de um sistema formal? Que as pesquisas de Turing estão relacionadas com o trabalho de Gödel – cujo Teorema que leva o seu nome é considerado um dos mais famosos resultados do século XX, dentro da matemática?Pode-se citar ainda a Tese de Turing-Church que possibilitou aos cientistas passarem de uma idéia vaga e intuitiva de procedimento efetivopara uma noção matemática bem definida e precisa doque seja um algoritmo. E antes de todos esses, o esforço de dezenas de pensadores de diferentes culturas, para encontrar melhores formas de usar símbolos, que viabilizou o desenvolvimento da Ciência Matemática e Lógica, e que acabaram fundamentando toda a Computação.

3.2  Incentivo à educação para a qualidade do software

A investigação histórica sob o prisma citado −das idéias e conceitos fundamentais que formaram a base do desenvolvimento da Computação −poderá contribuir para uma questão que assume importância decisiva e crucial: a qualidade do software.
É preciso aqui tecer um comentário relacionado ao tema da qualidade. A expressão “crise do software” [Nau69]apareceu no final da década de sessenta na indústria tecnológica da informação. Referia-se aos altos custos namanutenção de sistemas computacionais, aos custos relativos a novos projetos que falhavamou que consumiam mais recursos que os previstos, etc., realidades presentes no dia a dia de muitos centros de processamento de dados. Ao lado disso, havia, e ainda há, uma disseminação anárquica da cultura informática, impregnando cada dia mais a vida social e trazendo, como conseqüência, uma dependência cada vez maior da sociedade em relação ao computador. Torna-se fundamental, portanto, diminuir as incertezas presentes no processo de elaboração dos sistemas de computação.
A resposta a esses desafios já há alguns anos vem sendo formulada no sentido de se estabelecer uma execução disciplinada das váriasfases do desenvolvimento de um sistema computacional. A Engenharia de Softwaresurgiu tentando melhorar esta situação, propondo abordagens padronizadas para esse desenvolvimento. Algumas dessas propostas vão em direção ao uso de métodos formais nos processos de elaboração do sistema, basicamente através da produção de uma especificação formal em função das manifestações do problema do mundo real que estiver sendo tratado e através da transformação dessa especificação formal em um conjunto de programas executáveis.
Há também pesquisas dentro da Computação que caminham em direção ao desenvolvimento de métodos numéricos, em direção à lógica algébrica. George Boole, em sua obra que deu início a uma nova arrancada no desenvolvimento da Lógica Matemática. Um método se diz formal quando o conjunto dos procedimentos e técnicas utilizadas são formais, isto é, têm um sentido matemático preciso, sobre o qual se pode raciocinar logicamente, obtendo-se completeza, consistência, precisão, corretude, concisão, legibilidade e reutilização das definições abstratas.
Não é sem dificuldades que evoluem as investigações sobre o papel do raciocínio formal matemático no desenvolvimento do software. Mas é preciso ressaltar a sua importância pois através da especificação formal e verificação obtém-se uma excelente guia para o desenvolvimento de programas corretos e passíveis de manutenção. Talvez não se possapedir que todo programa seja formalmente especificado e verificado, mas é de se  desejar que todo programador que almeje profissionalismo esteja ao menos familiarizado com essas técnicas e seus fundamentos matemáticos.
Entre os aspectos estudados encontram-se: (i) verificação(prova de corretude): a prova de que um dado programa produz os resultados esperados; (ii) terminação: a prova de que um dado programa terminará eventualmente a sua execução; (iii) derivação (desenvolvimento): construção de um programa que satisfaz a um conjunto de especificações dadas; (iv) transformação: modificação sistemática de um programa dado para obter um programa equivalente, como estratégia para a derivação de novos programas por analogia a soluções conhecidas ou como método de otimização da eficiência de programas.
O estudo da História da Computação, não já sob o enfoque de datas e nomes −importantes também e necessários, paranão se cair na pura especulação −, mas sob o aspecto das idéias, de seus fundamentos e suas conseqüências, pode ser uma sólida base, um ponto de partida, para sensibilizar e entusiasmar o aluno sobre a importância dos fundamentos teóricos, para ajudá-lo a ver o que um determinado conceito tem como pressupostos.
3.3  Tornar claros e ligar os fatos

Entre os objetivos da ciência histórica pode-se aceitar como axiomático o de procurar dar um significado aos acontecimentos. É a busca de se dar sentido à história. Este trabalho, feito dentro de uma perspectiva teleológica da história, procurará estabelecer uma conexão causal entre eventos, para se começar a entender o sentido do passado, dispondo-o numa espécie de sistema organizado, para torná-lo acessível à compreensão.
Sob outro enfoque, pode-se ver a Históriada Ciência da Computação como um “olhar para trás com o fim de descobrir paralelismos e analogias com a tecnologia moderna, com o fim de proporcionar uma base para o desenvolvimento de padrões através dos quais julguemos a viabilidade e potencial para uma atividade futura ou atual”. Quer dizer, analisar o passado e reconhecer tendências quenos permitam prever algum dado futuro.
Dizia John Backus, criador do FORTRAN e da Programação Funcional: “Na ciência e em todo trabalho de criação nós falhamos repetidas vezes. Normalmente para cada idéia bem sucedida há dúzias de outras que não funcionaram” (1994, discurso ao receber o prêmio Charles Stark Draper).A história cataloga e registra tais falhas, que então se tornam uma fonte especial de aprendizado, ensinando tanto quanto as atividades bem sucedidas. Mais ainda, dão-nos o caminho, por vezes tortuoso, por onde transcorreram as idéias, as motivações, as inovações. Ou seja, é interessante e instrutivo o estudo da história de qualquer assunto, não somente pela ajuda que nos dá paraa compreensão de como as idéias nasceram - e a participação do elemento humano nisso − mas também porque nosajuda a apreciar a qualidade de progresso que houve.

3.4  Acompanhar novas tendências

É sintomático notar que pela primeira vez incluiu-se no curriculum para Ciência da Computação, desenvolvido pela ACM (Association for Computing Machinery) e IEEE (Institute of Electrical and Electronics Engineers) Computer Society Joint Task Force, em 1991, módulos relativos à história em 4 áreas:Inteligência Artificial, Sistemas Operacionais, Linguagens de Programação e Temas Sociais,Éticos e Profissionais. Mais recentemente ainda, na 6ª IFIP (International Federation for Information Processing), evento realizado dentro da Conferência Mundial dos Computadores na Educação, transcorrida em Birmingham, Inglaterra, de 20 a 24 de julho de 1995, estimulou-se não só “a preservação das peças de computadores, o registro de memóriasdos pioneiros e a análise do impacto exterior das inovações nos computadores, mas também o desenvolvimento de módulos educacionais na História da Computação”.
Significativo também é a introdução, nos cursos de Ciência da Computação, da disciplina História da Computação, principalmente a partir da década de 1990, em algumas universidades. Pode-se citar a Universidade deStanford e o Instituto Charles Babbage, da Universidade de Minnesota dedicado a promovero estudo da História da Computação, EUA, o arquivo Nacional para a História da Computação da Universidade de Manchester, Inglaterra, Universidade de Waterloo (Canadá) e similar em Bordeaux, França, Universidade de Wales Swansea, Austrália, etc.
Também aumentaram o números de museus e instituições governamentais ou particulares que prestam esse serviço de preservação da história da tecnologia informática, como por exemplo o museu de Boston, os museus de instituições militares americanas e organizações do porte do IEEE. Esta últimapromoveu em 1996 o lançamento de pelo menos quatro livros sobre o assunto História da Computação, tendo construído um “site” na Internet, narrando os eventos dessa história desde o século XVII. Na Internet proliferaram os museus de imagens e cronologias sobre assuntos específicos como Microcomputadores, Computação Paralela, Linguagens de Programação, etc.

3.5  Revalorizar o fator humano

Finalmente há o grande tributo que se deve fazer a esses homens que, ao longo da história da ciência Matemática, Lógica, Física, e mais recentemente da Computação, não se deixaram levar pelo brilho atraente daquilo que chama a atenção e das demandas mais imediatas. Motivados pela pura busca do saber formaram o arcabouço, a infra-estrutura que possibilitou a revolução da informática. Os bits e todas as partes de um computador (incluindo o software) são na verdade o resultado de um processo, de uma evolução tecnológica de vários séculos, partilhada por inúmeros personagens, cada um acrescentando sua pequena ou grande contribuição.
“Qualquer que seja, porém, o destino da informática, ela já tem o seu lugar na História, constituindo-se num dos fatores preponderantes que moldam o conturbado mundo no fim do século XX. Sem a compreensão do seu papel social, não será possível entender o processo histórico em marcha, nem a direção dofuturo. Desse modo, a pesquisa da História da Computação tem um significado fundamental no presente”.

4  EVOLUÇÃO DOS CONCEITOS

Considerando as idéias e os conceitos como uma das linhas que conduzirão ao grande desenvolvimento tecnológico da Computação a partir da década de 40 do século XX, este capítulo faz referência a alguns aspectos da evolução da Matemática, e mais especificamente de alguns dos seus ramos, no caso a Álgebra e a Lógica Simbólica ou Matemática, de onde nos vieram o rigor e o método axiomático, até chegar às noções de computabilidadee procedimento, com Turing e Church.

4.1  Primórdios

4.1.1  A evolução do conceito de número e da escrita numérica

Talvez o passo mais fundamental dado nestes primeiros tempos tenha sido a compreensão do conceito de número, isto é, ver o número não como um meio de se contar, mas como uma idéia abstrata. O senso numérico foi o ponto de partida. Trata-se da sensação instintiva que o homem tem das quantidades, atributo participado também pelos animais irracionais (a gata mia quando um dos filhotes não está no ninho; determinados pássaros abandonam o ninho quando um dos seus ovos foi mudado de lugar); na vida primitiva bastava esse senso numérico. Mas com o começo da criação dos animais domésticos era necessário saber algo mais, pois se a quantidade não fosse melhor conhecida, muitas cabeças se perderiam. Inventou-se a contagem através do estabelecimento de uma relação entre duas ou várias quantidades, na qual cada elemento de uma corresponde a um elemento de outra e nenhum elemento deixa de ter o seu correspondente (por exemplo, pedrinhas de um monte com ovelhas de um rebanho).
No entanto essa relação biunívoca se dá somente no âmbito mental (ovelhas e pedra estão na natureza e não se dão conta um do outro). Não está registrado de que forma ocorreu o reconhecimento, pelos nossos antepassados mais primitivos, de que quatro pássaros caçados eram distintos de dois, assim como o passo nada elementar de associar o número quatro, relativo a quatro pássaros, e o númeroquatro, associado a quatro pedras. Essa correspondência é um pensamento que é uma espécie de linguagem. Nessa linguagem estão envolvidas a quantidade, a correspondência biunívoca (o número) e a sua expressão (os elementos usados para contagem: pedras, dedos, seqüências de toques no corpo, e outras formas mais primitivas de expressar um numeral).
A visão do número como uma qualidade de um determinado objeto é um obstáculo ao desenvolvimento de uma verdadeira compreensão do que seja um número. Somente quando, de acordo com um dos exemplos dados, o número quatro foi dissociado dos pássaros ou das pedras, tornando-se uma entidade independente de qualquer objeto – uma abstração, como diriam os filósofos –, é que se pôde dar o primeiro passo em direção a um sistema de notação, e daí à aritmética. ConformeBertrand Russell, “foram necessários muitos anos para se descobrir que um par de faisões e um par de dias eram ambos instâncias do número dois”.
E assim como se criaram símbolos escritos para expressar idéias, também criou-se a escrita numérica. Os numerais escritos surgem nas civilizações antigas (egípcia, babilônica e chinesa) e se baseiam na repetição de símbolos. No caso dos egípcios, ao se completar o décimo elemento, tomava-se um outro símbolo para representar o número.
O advento do que nós chamamos de sistema numérico hindu-arábico, com seu rígido esquema de valores e posições, juntamente com o zero (que era usado para representar um espaço em branco), foi uma das grandes invenções da humanidade, e possibilitou o desenvolvimento dos métodos matemáticos e aritméticos, que a partir disso evoluíram muito mais do que qualquer coisa que se conhecia até então*
O uso do zero não era incomum em certos sistemas numéricos posicionais primitivos. Os babilônios usaram um caráter parecido com o zero para representar uma coluna vazia no meio do número por volta do ano 200 a.C., mas isso não era muito comum no sistema deles. Se um número, por exemplo 1024, precisasse de um zero para separar o dígito 1 do dígito 2, eles usavam o símbolo do zero do mesmo modo que se faz hoje. No entanto, se eles tivessem que representar um número como o 1000, parece que eram incapazes de conceber o fato de que o símbolo zero pudesse ser usado para simplesmente “cobrir” os espaços restantes, e eles representavam apenas o número 1, deixando ao leitor a tarefa de descobrir se aquilo significava 1000, e não 10, 100 ou até mesmo 1.
Olhando-se para trás na História, parece que a invenção de um sistema numérico de posições rígidas, e ainda de um símbolo para designar o zero, deveria ter sido um extensão óbvia de alguns dos primeiros sistemas numéricos de posições. Essa idéia é falsa: basta pensar que escapou à percepção de grandes autores da Antigüidade, como Arquimedes ou Apollonius de Pergam, mesmo quando eles percebiam as limitações de seus sistemas.
Exatamente onde e quando os homens começaram a utilizar o atual sistema numérico posicional, e os 10 dígitos em que eles eram baseados, continua a ser um fato obscuro. Certamente veio até a Europa pelos árabes, e é bem certo de que eles o obtiveram do povo do subcontinente indiano. Onde e quando os indianos obtiveram esse sistema não é conhecido. Pode ter sido uma invenção indígena, ou ter vindo do leste da Indochina, ou um desenvolvimento do uso babilônico do símbolo da colunavazia. Na Índia antiga, bem como em muitas sociedades, a arte da aritmética foi desenvolvida em um maior grau do que o necessário para o comércio, por causa da sua importância para a religião local. Todas as três primeiras religiões indianas (Janaísmo, Budismo e Hinduísmo) consideravam a aritmética importante, como mostra o fato de ser exigida entre os estudos fundamentais a serem feitos pelos candidatos ao sacerdócio.
O uso mais antigo que se tem notícia da matemática indiana está em trabalhos escritos em forma de verso, onde complicadosexpedientes literários eram utilizados para representar números, de modo a se preservar a rima e a métrica dos poemas. Até mesmo documentos que usam numerais para denotar números nem sempre são guias seguros para informar quando tal prática começou a aparecer. Parece que, em alguma época no século XI, foi feita uma tentativa para se racionalizar o sistema de propriedade da terra em partes da Índia, o que levou muitas pessoas a produziremdocumentos forjados para pedir seus vários lotes. Das 17 inscrições conhecidas usando numerais antes do século X, todas, à exceção de duas, mostraram ser falsificações. A mais antiga e indubitável ocorrência do zero na inscrição escrita na Índia foi em 876 d.C., com os números 50 e 270 sendo representados em uma versão local dos dígitos indianos.
A história do nosso sistema numérico fica muito mais clara a partir do século IX d.C. No século VII, quando a dinastia dos Califas começou em Bagdá, o aprendizado das culturas adjacentes foi absorvido em uma nova e expansiva cultura árabe. Quando os árabes conquistavam um país, eles costumavam adquirir seu modo de escrita, particularmente a notação dos numerais do povo conquistado e procurar traços de conhecimento na literatura que sobreviveu à guerra.
Graças aos trabalhos do matemático al-Kharazmi (mais a frente se falará da importância deste homem originário da Pérsia), o uso dos numerais hindus rapidamente se expandiu por todo o império árabe. A eventual expansão desses numerais pela Europa é mais facilmente explicada a partir dos contatos gerados entre árabes e europeus pelo comércio e pelas guerras. É provável que os comerciantesitalianos conhecessem o sistema de contas de seus parceiros comerciais, e que os soldadose sacerdotes que retornaram das cruzadas também tivessem uma ampla oportunidade de ter contato com o sistema de notação e aritmética árabes. O mais antigo manuscrito europeu contendo numerais hindu-arábicos de que se tem notícia foi escrito no claustro Albeda, na Espanha em 976 d.C. Os novos numerais também foram encontrados em outro manuscrito espanhol de 992 d.C., em um manuscrito do século X encontrado em St. Gall, e em um documento do Vaticano de 1077 d.C. Entretanto seu uso não foi muito difundido durante esse período inicial, e é provável que pouquíssimas pessoas tenham entendido o sistema antes da metade do século XIII.
 A primeira grande tentativa de introduziressa nova forma de notação foi feita por Leonardo de Pisa (1175 a 1250), mais conhecido pelo nome de Fibonacci (que veio de filius Bonaccio, o filho de Bonaccio), um dos melhores matemáticos europeus da Idade Média. Durante o tempo de Fibonacci, Pisa era uma das grandes cidades comerciais da Itália, e por isso entrou em contato com toda a área do Mediterrâneo. O pai de Fibonacci era o chefe de uma das casas de comércio ultramarino, em Bugia, na costa da África Norte. Bugia era um importante centro para mercadores e estudantesda época e Fibonacci foi mandado, quando tinha 12 anos, para se juntar a seu pai, tendouma chance de ouro para observar os métodos árabes. Certamente obteve parte de sua educaçãoenquanto estava em Bugia, e a lenda diz que ele aprendeu árabe e aritmética por um mercadorlocal. Visitou depois o Egito, Síria, Grécia e França, onde se esforçou para se informar sobre os sistema aritméticos locais. Ele achou todos esses sistemas numéricos tão inferioresaos que os árabes utilizavam que, quando voltou a Pisa, escreveu um livro para explicaro sistema árabe de numerais e cálculo. Esse livro, nomeado de Liber Abaci(O Livro do Ábaco) foi publicado pela primeira vez em 1202, e revisto e ampliado em 1228. Era um tomo muito grande para a época, constituído de 459 páginas divididas em 15 capítulos. Os capítulos 1 a 7 introduziam a notação árabe e as operações fundamentais com números inteiros; os capítulos 8 a 11 tratavam de várias aplicações, enquanto os restantes eram dedicados aos métodos de cálculo envolvendo séries, proporções, raízes quadradas e cúbicas, e uma pequena abordagem sobre geometria e álgebra.
Foi em um desses últimos capítulos em que ele introduziu o famoso problema do coelho e as séries de números que agora levam seu nome. O Liber Abaci não foi tão influente quanto deveria ser porque era muito grande, e portanto difícil de copiar em uma época emque não havia imprensa. Também continha material avançado que só poderia ser entendido por estudiosos, tendo sido conhecido apenas por poucas pessoas, nenhuma das quais parecia termuita influência nos métodos de cálculo usado nas transações diárias.
Mas embora os esforços de Fibonacci tivessem pouco sucesso, a idéia dos numerais hindu-arábicos foi gradualmente se expandindo na Europa. As principais fontes de informação foram as várias traduções, algumas parciais, do trabalho de al-Kharazmi. O fato de ser a língua árabe totalmente diferente de qualquer língua européia foi uma grande barreira para a disseminação das idéias científicas árabes. Para aprender o árabe, era geralmente necessário viajar a um país de língua árabe, e issoera uma tarefa difícil, já que alguns árabes não eram simpáticos aos visitantes cristãos(e vice-versa). Esse problema foi parcialmente resolvido em 1085, quando Alphonso VI de Leon recapturou Toledo dos mouros e uma grande população de língua árabe veio à esfera da influência européia. A maioria das primeiras traduções, ou pelo menos as pessoas que ajudaram os tradutores, vieram dessa população.
Os dois principais trabalhos que espalharam o conhecimento aritmético hindu-árabe pela Europa foram o Carmen de Algorismo (o Poema do Algorismo) deAlexander De Villa Dei por volta de 1220 e o Algorismus Vulgaris (Algorismos Comuns), de John de Halifax, mais conhecido como Sacrobosco, por volta de 1250 d.C. Esses dois livros foram baseados, pelo menos em parte, nos trabalhos de al-Kharazmi ou de um de seus sucessores. Foram elaborados para uso em universidades européias e não pretendiam ser explicações completas do sistema; preferiram dar simplesmente o básico que o professor pudesse explicar, linha a linha, para seus alunos. O Carmen de Algorismoera particularmente difícil de ser seguido, especialmente na discussão do cálculo de raízes, porque foi escrito em versos hexassílabos.
Apesar disso ele ficou muito popular, sendo copiado muitas vezes no latim original e sendo até traduzido em inglês, francês e irlandês. Parte dessa popularidade se deveu ao fato de que Alexander de Villa Dei (? a 1240), que era nativo da Normandia e escrevia e ensinava em Paris, já era famoso por uma gramática de latim, também em versos, que era muito utilizada nas escolas da época. Também o fato de possuir somente 284 linhas o fazia facilmente copiável pelos escribas, e assim, enquanto se produzia uma cópia do Liber Abaci,centenas de cópias do Carmenpodiam ser feitas e distribuídas. O mesmo acontecia com o Algorismus Vulgaris, que tinha somente 4.000 linhas. Sacrobosco, que também ensinava em Paris durante a primeira metade do século XIII, era conhecido por seu trabalho em astronomia, e isso sem dúvida contribuiu para o sucesso do Algorismus Vulgaris, que continuou a ser usado como um texto universitário em aritmética até mesmo depois da invenção da imprensa. Edições impressas são conhecidas a partir do fim dos séculos XV e XVI.
Uma dos primeiros tradutores do trabalho deAl-Kharazmi foi Adelard de Bath que, por volta do ano 1120, produziu um texto em latim cujas primeiras palavras eram Dixit Algorismi …(assim disse o algorismo…), e que resultou nessa nova ciência que ficou conhecida como algorismo. Esse termo, e as várias corruptelas originadas por autores diferentes, finalmente se espalhou através detodas linguagens européias até o ponto de o processo de fazer aritmética com os numerais hindu-arábicos ser chamado algarismo, e isso nos deu o termo algoritmo que é tão familiar aos estudantes de Ciência da Computação. A conexão do Algorismi com al-Kharazmi perdeu-se e muitosautores inventaram até outras pessoas, como um que citava o ‘Rei Algor’, a quem a origem desses métodos poderia ser atribuída...
A troca dos numerais adicionais romanospara o sistema posicional dos hindu-árabes foi lenta, durou alguns séculos. Não era fácil para os europeus entenderem o uso do zero que, enquanto representando o nada em si, podia magicamente fazer outros dígitos crescerem dramaticamente em valor. A palavra hindu para o sinal do zero era sunyaque, muito apropriadamente, queria dizer vazio ou desocupado. Quando o sistema foi adotado pelos árabes, eles usaram sua própria palavra para desocupado, que é geralmente escrita como sifrno nosso alfabeto. Essa palavra árabe foi simplesmente escrita no alfabeto latino ou como zephirum, de onde veio a nossa palavra zero, ou como cipher, de onde derivou o antigo verbo inglês to cipher, que significava “fazer aritmética”. Parte do mistério com que o novo sistema era considerado pode ser observado pelo fato de que a mesma palavra para a raiz elevou termos que eram envolvidos em mágica e escrita secreta, como calcular ou decifrarum texto em código.
Esse ar de mistério foi realçado pela atitude de algumas pessoas que, depois que conheciam o algarismo, acharam que isso era um conhecimento para ser mantido entre um grupo secreto, e não para ser explicado para pessoas comuns. Essaatitude é ilustrada em várias figuras do fim da Idade Média, uma das quais mostra duaspessoas fazendo aritmética, uma usando os métodos antigos do ábaco enquanto o outro, escondendo seu trabalho do primeiro, estava usando o novo algarismo.
Por volta de 1375 o uso dos numerais hindu-arábicos firmou-se na Europa. Eles começaram a aparecer em muitos documentos diferentes, embora ainda existisse uma grande resistência para a adoção dos novos números. Em 1229, a cidade de Florença proclamou uma lei que proibia o uso dos numerais hindu-arábicos, pois eram fáceis de serem alterados ou forjados (por exemplo, transformar um 0 emum 6 ou 9 deveria ser bastante fácil). Os mercadores desenvolveram vários truques para prevenir esse tipo de coisa com os numerais romanos; por exemplo, XII era escrito como Xij,então um i extra não poderia ser adicionado ao fim sem gerar suspeitas e, fazendo o primeiro caracter maiúsculo, eles evitavam que qualquer um colocasse caracteres à esquerda donúmero. Passaria apenas pouco tempo para que se desenvolvessem dispositivos semelhantes para os novos numerais, mas ainda por volta de 1594 os mercantes da Antuérpia eram alertados para que não os usassem em contratos ou em ordens de pagamento bancárias.
Os italianos rapidamente viram a utilidade do novo sistema para propósitos mercantis e influenciaram toda a Europa paraa adoção do sistema de valor posicional. Algarismos já eram bem difundidos por volta de 1400, mas os mercadores mais conservadores continuaram utilizando os numerais romanos até por volta de 1550, e muitos monastérios e faculdades os usaram até o meiodo século XVII. Até mesmo por volta de 1681 encontram-se evidências de que o novo sistema ainda não tinha sido completamente compreendido. Um livro publicado naquele ano teve seus capítulos numerados como: 1, 2, 3, 4, 5, 6, 7, 8, 9, X, X1, X2, X3, X4 … XXX, XXX1, 302, 303… XXXX, 401, 402,…
Essa permanência dos métodos antigos de notação foi causado não por falta de conhecimento sobre o novo, mas pelo medo de que, sem um entendimento completo do sistema, alguma coisa poderia dar errado. Essetipo de medo é visto de vez em quando até hoje, mas dois exemplos do século XVII podem ajudar a ilustrar o fenômeno. Willian Oughtred, que se encontrará mais a frente neste livro ao se falar da régua de cálculo, preferia calcular ab + ac a calcular a(b+c) por causa do medo de que algum tipo de erro poderia acontecer em um sistema abreviado. Muitas formas diferentes de numerais foram usadas na Europa, alguma das quais não seriam reconhecidas da maneira que elas são agora. As versões manuscritas dos antigos trabalhos são particularmente difíceis de se ler porque o autor e o copista usaram as formas de numerais com queeles eram mais familiarizados. Livros produzidos em regiões próximas, ou separados por poucos anos, usaram caracteres diferentes para pelo menos alguns dos numerais. Foi a invenção da imprensa que os padronizou na forma em que nós os conhecemos agora, embora até hoje as formas do 5 e do 7 variem ligeiramente entre europeus e americanos. É interessante notar que, apesar do fato de que os europeus obtiveram o sistema dos árabes, as duas culturas utilizam formas de numerais notavelmente diferentes hoje. O turista europeu tem constantemente problemas com o fato de que o círculo é usado nos países árabes comosímbolo para o dígito cinco e algo parecido com um ponto é usado para o símbolo do zero.

4.1.2  Desenvolvimentos iniciais da ciência do cálculo

Pode-se dizer que os primeiros passos em direção aos computadores digitais foram dados nas antigas civilizações da China, do Egito e da Babilônia, há mais de quatro milênios, com os sistemas de medidas de distâncias, previsão do curso das estrelas e tabelas gravadas em tábuas de barro usadas para ajudar cálculos algébricos. Durante a civilização grega algumas destas pré-ciências tomaram forma através dos sistemas axiomáticos. Enquanto isso, é geralmente aceito que a Álgebra desenvolveu-se em cada civilização passando por sucessivas etapas, denominadas retórica, sincopada e simbólica.
Um museu em Oxford possui um cetro egípcio de mais de 5.000 anos, sobre o qual aparecem registros de 120.000 prisioneiros e 1.422.000 cabras capturadas [Boy74]. Apesar do exagero dos números, fica claro que os egípcios procuravam ser precisos no contar e no medir, bastando lembrar o alto grau de precisão das pirâmides. Medir as terras para fixar os limites das propriedades era uma tarefa importante nas civilizações antigas, especialmente no Egito. Ali, as enchentes anuais do Nilo, inundando as áreas férteis, derrubavam os marcos fixados no ano anterior, obrigando os proprietáriosde terras a refazer os limites de suas área de cultivo. Em algumas ocasiões, a questão era refazer os limites com base em informações parciais; conhecida a forma do terreno, tratava-se por exemplo de reconstruir os lados
Em um sistema axiomático parte-se de premissas aceitas comoverdadeiras e de regras ditas válidas, que irão conduzir a sentenças verdadeiras. As conclusões podem ser alcançadas manipulando-se símbolos de acordo com conjuntos de regras. A Geometria de Euclides é um clássico exemplo de um procedimento tornado possível por um sistema axiomático.
“A álgebra retórica é caracterizada pela completa ausência de qualquer símbolo, exceto, naturalmente, que as próprias palavras estão sendo usadas no seu sentido simbólico. Nos dias de hoje esta álgebra retórica é usada em sentenças do tipo
‘a soma é independente da ordem dos termos’, que em símbolos seria designada por ‘a+b = b+a’ ”[Dan54]. A sincopada é a notação intermediária que antecedeu a simbólica, caracterizada pelo uso de abreviações que foram sendo contraídas até se tornarem um símbolo [idem]. restantes se um deles se havia preservado. Em outras ocasiões, destruídas por completo as fronteiras, tratava-se de refazê-las, de modo a remarcar o desejado número de propriedades, conservando as áreas relativas que possuíam no passado. Os egípcios tornaram-se hábeis delimitadores de terra e devem ter descoberto e utilizado inúmeros princípios úteis, relativos às características de linhas, ângulos e figuras −como por exemplo, o deque a soma de três ângulos de um triângulo é igual a dois ângulos retos, e o de que a área de um paralelogramo é igual à do retângulo que possua a mesma base e a mesma altura.
Provavelmente os egípcios obtiveram esses princípios por intermédio de raciocínios indutivos, fruto da observação e experimentação: mediam muitos triângulos e ângulos retos, áreas de muitos paralelogramos e retângulos, e parece que tais conhecimentos limitaram-se a habilitar os egípcios a resolver problemas de traçados de limites, de comparação de áreas, de projetos arquitetônicos e de engenharia de construções. No Egito antigo e na Babilônia existiam calculadores profissionais chamados escribaspelos egípcios e logísticospelos gregos. As primeiras tentativas de invenção de dispositivosmecânicos para ajudar a fazer cálculos datam dessas épocas, como, por exemplo, o ábaco e o mecanismo Antikythera, sobre os quais se falará mais detidamente no capítulo da Pré-História Tecnológica.
Os gregos assimilaram os princípios empíricos dos egípcios e deram, a esse delimitado conhecimento, o nome de Geometria, isto é, medida da terra. Mas diferentemente daqueles, estudaram a Geometria mais sob seu aspecto teórico, desejando compreender o assunto por ele mesmo, independentemente  de sua utilidade. Procuraram encontrar demonstrações dedutivas rigorosas das leis acerca do espaço e mostraram um crescente interesse pelos princípios geométricos. Pitágoras considerava que, em sua forma pura, a geometria se aproximava bastante da religião e para ele era o arché, o princípio de tudo, buscado tão intensamente pelos filósofos cosmológicos. Com a obra Elementos, de Euclides, reúnem-se e são apresentados de modo sistemático as principais descobertas geométricas de seus precursores, sendo considerado, até o século XIX, não somente o livro-texto da Geometria, mas o modelo daquilo que o pensamento científico deveria ser.
Resumindo, deve-se ver nestes tempos as tentativas de conceituação do número, o estabelecimento das bases numéricas, o estudo da Álgebra e da geometria e a busca de uma sistematização do raciocínio, que tanto atraíram os antigos. Tempos de evolução lenta e, em termos de produção efetiva de conhecimento matemático, bem abaixo da quantidade e qualidade produzida quase que exponencialmente a partir do século XV d.C., mas não menos importantes. De fato, para se compreender a História da Matemática na Europa é necessário conhecer sua história na Mesopotâmia e no Egito,na Grécia antiga e na civilização islâmica dos séculos IX a XV.

4.1.3  A Lógica de Aristóteles

Aristóteles (384 a.C. - 322 a.C.) é um filósofo‘atual’: a ‘questão aristotélica’, isto é, o que Aristóteles realmente escreveu , o que se deve a ele ou antes, a seus discípulos, é algo complexo, onde não há acordo definitivo, e provavelmente segundo alguns nunca haverá, sendo uma questão sobre a qual se continua escrevendo. Aristóteles passou quase vinte anos na Academia platônica e educou Alexandre Magno (se Platão estivesse vivo teria visto a realização de seu maior sonho, o de que os governantes filosofassem). Preocupava-o, como a todos os gregos, a vida política, a cidade, porémo que mais o interessava era o saber. E foi sábio em quase todos os domínios: ciências naturais, lógica, física, poética, astronomia, ética, política, retórica, psicologia, entre outras. Mestrede lógica para centenas de gerações, aplicou-se, sobretudo, em assentar as bases da “ciênciaque buscamos”, a “filosofia primeira”, o que depois chamou-se Metafísica. Interessa neste estudo sobretudo a lógica aristotélica e o seu método axiomático.
A Lógica foi considerada na tradição clássica e medieval como instrumento indispensável ao pensamento científico. Atualmente é parte importante na metodologia dedutiva das ciências, além de constituir-se como um saber próprio, com ligação a relevantes problemas teóricos. Da Lógica Científica nasceua Lógica Matemática e, dentro desta, várias filosofias da lógica que interpretam os cálculossimbólicos e sua sistematização axiomática.
Para a História da Computação interessa abordar em particular a questão do pensamento dedutivo e matemático, seus limites, o problema da relativa mecanização do pensamento quantitativo e o problema da Inteligência Artificial. Da discussão e busca da solução desses problemas, que entram também no campo filosófico, formou-se a base conceitual, teoria da computabilidade, necessária para o advento do computadores.
O início da ciência da Lógica encontra-se na antiga Grécia [Kne68] [Boc66]. As polêmicas geradas pela teoria de Parmênides e os famosos argumentos de Zenão, que negavam a realidade do movimento fazendo um uso indevido do princípio da não-contradição, contribuíram para a distinção dos conceitos, para se ver a necessidade de argumentar com clareza, mediante demonstrações rigorosas, e assim responder às objeções dos adversários. Mais tarde, as sutilezas dos sofistas, que reduziam todo o saber à arte de convencer pelas palavras, levaram Sócrates a defender o valor dos conceitos e tentar defini-los com precisão. Assim a Lógica como ciência vai se formando pouco a pouco, principalmente com Sócrates e Platão. Mas Platão pensava que qualquer conteúdo da mente existia tal qual na realidade e Aristóteles reage ao seu mestre, dizendo que as idéias existem somente na mente humana, mas correspondendo a realidades.
Com Aristóteles é que se dá o verdadeiro nascimento da Lógica como ciência das idéias e dos processos da mente. “Até hoje não existe forma alguma concebível de lógica, por muito distinta que seja da lógica formal, que não tenha algum tipo de conexão com a obra aristotélica”. Ele foi o primeiro lógico formal da história, tendo desenvolvido ao menos duas formas distintas de lógica formal, elaborando algumas de suas partes de maneira praticamente completa e deixando esboçados outros tipos de lógicas que somente na época atual foram novamente tratadasParmênides (540 a 470 a.C.) negava a existência do movimento (“devir”) e afirmava a existência de um único ser (panteísmo), tendo enunciado o princípio da não contradição:‘algo não pode ser e não ser ao mesmo tempo, sob o mesmo aspecto e no mesmo sujeito’. Seu discípulo Zenão (490 a 430 a.C.) foi o fundador da dialética e radicalizou a negação do movimento. Este envolveria um paradoxo: para mudar completamente é preciso antes mudar parcialmente, e assim infinitamente, o que levaria a concluir que o movimento não existe (paradoxos de Aquiles e a tartaruga e os pontos de percurso de uma flecha)
Além do mais interessa o estudo das obras do Filósofo pois tem um especial valor pedagógico, ao apresentar de maneira unitária a maior parte dos problemas lógicos, contemplados com o vigor característico que acompanha uma ciência emergente, e mais acessível ao principiante que muitas apresentações modernas de lógica formal.
Aristóteles escreveu uma série de trabalhosque seriam editados por Andrônico de Rodes no século I d.C. e que receberam posteriormente o nome de Organon(“Instrumento”), de acordo com a concepção segundo a qual a Lógica deveria fornecer os instrumentos mentais necessários para enfrentar qualquer tipo de investigação. Essa obra compreende os seguintes livros: Categorias, Analíticos I, Analíticos II, o Peri Hermeneias (ou sobre a interpretação), Tópicose Refutação de argumentos sofistas. A grande novidade aristotélica está nos Analíticos, com o silogismo. Aristóteles chamava a Lógica com o termo “analítica” (e justamente “Analíticos” são intitulados os escritos fundamentais do Organon). A analítica (do grego analysis, que significa “resolução”) explica o método pelo qual,partindo de uma dada conclusão, resolve-se precisamente nos elementos dos quais deriva, isto é, nas premissas e nos elementos de que brota, e assim fica fundamentada e justificada.
Aristóteles construiu uma sofisticada teoria dos argumentos, cujo núcleo é a caracterização e análise dos chamados silogismos, os típicos raciocínios da lógica aristotélica. O argumento “Todo homem é mortal. Sócrates é homem. Logo, Sócrates é mortal” é o exemplo típico do silogismo perfeito. Conforme o próprio Aristóteles, “o silogismo é um discurso no qual, sendo admitidas algumas coisas, outra coisa distinta resulta necessariamente dessas coisas afirmadas primeiro, pelo único fato de que essas existem”.
Nos Primeiros Analíticos, Aristóteles desenvolveu minuciosamente o sistema dos silogismos, mostrando os princípios maiores que o sustentam e as regras que lhe devem moldar a construção. A análise do Filósofo é tão ampla quanto engenhosa e envolve também as assim chamadas “modalidades” e os silogismos modais.
Entre as características mais importantes da silogística aristotélica está a de se ter pensado pela primeira vez na história da lógicaem fazer uso de letras que poderiam ser usadas para representar uma expressão substantiva qualquer, fundamental para o desenvolvimento do simbolismo lógico. É também com Aristóteles que se encontra uma das primeiras tentativas de se estabelecer um rigor nas demonstrações matemáticas. Ao definir os dois tipos de demonstração, quia (dos efeitos às causas) e  propter quid (das causas aos efeitos), dizia (I Anal. Post., lect. 14) que as matemáticas utilizampreferencialmente esse modo de demonstrar, e por isso esta ciência é essencialmente dedutiva: “algumas vezes o mais conhecido por nós em si mesmo e por natureza é também o maiscognoscível em si mesmo e por natureza.
Assim acontece nas matemáticas, nas quais, devidoà abstração da matéria, não se efetuam demonstrações mais do que a partir dos princípios formais. E assim as demonstrações procedem desde o mais cognoscível em si mesmo”.
No entanto, para que haja demonstração, os primeiros princípios devem ser indemonstráveis, já que, do contrário, se procederia a uma regressão ao infinito. E como se conhece a verdade dos primeiros princípios? Por indução. “À força de contemplar a freqüência dos acontecimentos, buscando o universal”. Os primeiros princípios não são inatos; são adquiridos na experiência, analisando-se as percepções que contém um elemento universal. No entanto esta ‘indução’ citada porAristóteles nada tem a ver com ‘demonstração por indução completa’ ou o ‘método da indução finita’ ou, mais ainda, ‘raciocínio por recorrência’, estabelecido pelo matemático italiano Giuseppe Peano.
Sobre esta temática ver anexo sobre Dedução e Indução na Matemática. E no meio de tudo isso emergiu aquela queé considerada uma das mais definitivas contribuições do Organon: o método axiomático, que recebeu precisamente no século XX sua maior valoração, ao apresentar-se comoo caminho universal dentro do qual se enquadram todas as ciências dedutivas. Umpouco mais sobre este assunto é exposto no anexo O método axiomático e as ciências dedutivas.

4.1.4  A contribuição dos megáricos e estóicos

Embora Aristóteles seja o mais brilhante e influente filósofo grego, outra importante tradição argumentativa formou-se na antiga Grécia, com os megáricos e estóicos. Pouco conservada pela tradição, merece um melhor tratamento dos historiadores, porque o que deles se conhece sugere que esses gregos eram altamente inteligentes.
Os megáricos (em função de sua cidade, Mégara) interessaram-se por certos enigmas lógicos como o conhecido “paradoxo do mentiroso”: quem diz “O que eu afirmo agora é falso”, enuncia algo verdadeiro ou falso? Umdeles, Diodoro Cronus, que morreu por volta de 307 a.C., formulou interessante concepção modal, relacionando possibilidade, tempo e verdade, enquanto outro megárico, de nome Fílon, estudou proposições do tipo “Se chove então a rua está molhada”, construída com o auxílio das expressões “se..., então...” conhecidas
Modalidades são as expressões do tipo “é possível que...”, “é necessário que...”. como condicionais. Ele as definiu em termos extremamente polêmicos, mas que seriam assumidos como corretos, vinte e três séculos mais tarde pelos fundadores da Lógica Contemporânea.
Os estóicos (da chamada escola filosófica de “Stoa”, que quer dizer “pórtico”) desenvolveram também notáveis teorias lógicas.Tinham bastante presente a diferença que há entre um código de comunicação específico, de um lado, e o que se pode expressar através do uso de tal código. Assim sendo, um conceitode “proposição” análogo ao usado na atual Lógica, já estava presente, de modo virtual, na filosofia estóica da linguagem.
Porém a mais notável contribuição estóica à Lógica foi obra de Crísipo de Soles (280-206 a.C.), homem de vasta produção poligráfica (750 livros). Ele estudou as sentenças condicionais e também as disjuntivas(regidas pela partícula “ou”) e as copulativas (regidas pelo “e”), tendo também reconhecido claramente o papel lógico desempenhado pela negação.
Além disto, Crísipo foi capaz de relacionar taisidéias com as modalidades, elaborando, então, um sistema de princípios lógicos que, no seu campo específico, foi muito além dos poucos resultados obtidos por Aristóteles e seu discípulo Teofrasto. Por tal razão, Crísipo é reconhecido como o grande precursor daquilo que hoje se chama “Cálculo Proposicional”, o primeiro capítulo da Lógica desenvolvida a partir do último quarto do século XIX [Bri79b].

4.1.5  Euclides e o Método Axiomático

Com sua obra Elementos, o matemático grego Euclides (330 a.C. - 277 a.C.) deu uma forma sistemática ao saber geométrico, implementando as idéias sobre axiomatização, de Aristóteles, para uma ciência exata. No primeirolivro dos Elementos, ele enuncia vinte e três definições, cinco postulados e algumas noções comuns ou axiomas. Em seguida ele deduz proposições ou teoremas, os quais constituem o saber geométrico, como por exemplo: “se em um triângulo dois ângulos são iguais entre si, também os lados opostos a esses ângulos são iguais entre si”. Postulados, axiomas e definições constituem os pontos de partida para as demonstrações de Euclides. Seu objetivo é mostrar todos os outros princípios geométricos − primeiro os da Geometria Plana e depois os da Geometria Espacial −, revelando que são decorrências necessárias dos princípios fundamentais.
Quais são os traços característicos das técnicas adotadas por Euclides? Em primeiro lugar ele enuncia as sua leis em forma universal:não se detém em determinada figura ou linha, mas examina as propriedade que todas as figuras e todas as linhas de tal ou qual tipo devem ter. Formula tais leis de maneira rigorosa e absoluta e, mais ainda, demonstra-as. Seu livro, na verdade, consiste em demonstrações colocadas de maneira sistemática, não indutiva, mas dedutiva, por meio das quais procura estabeleceras suas conclusões com o rigor da lógica.
Euclides visava aperfeiçoar o conhecimento acerca de pontos, linhas e figuras, tornando mais rigorosas as demonstrações de leis já conhecidas, e procurava aumentar esse conhecimento, demonstrando leis novas, até então desconhecidas.Mas talvez não se esgotasse aí a motivação − ou pelo menos as conseqüências − do que elaborou o geômetra. A colocação de axiomas e teoremas em forma dedutiva deu à Geometria uma apresentação mais elegante e transparente, tornando facilmente perceptíveis as interessantes conexões lógicas ali introduzidas. A axiomatização do saber Geométrico abriu um sem fim de perspectivas para os estudiosos das ciências exatas, que adotam as exposições axiomáticas −e buscam axiomatizações mais elegantes e econômicas −não só para dar rigor às suas demonstrações, mas descobrir novas conexões lógicas.
Esse é portanto o modo como Euclides ordena o conhecimento geométrico no chamado sistema euclidiano. Durante séculos essesistema valeu como modelo insuperável do saber dedutivo: os termos da teoria são introduzidos depois de terem sido definidos e as proposições não são aceitas se não forem demonstradas. Euclides escolhia as proposições primitivas, base da cadeia sobre a qual se desenvolvem as deduções sucessivas, de tal modo que ninguém pudesse levantar dúvidas sobre a suaveracidade: eram auto-evidentes, portanto isentas de demonstração. Leibniz afirmaria mais tarde que os gregos raciocinavam com toda a exatidão possível em matemática e deixaram à humanidade modelos de arte demonstrativa ([RA91], volume III).
Em resumo, Euclides, como já fizera Aristóteles, buscou o ideal de uma organização axiomática, que em última instância se reduz à escolha de um pequeno número de proposições em princípio aceitas naquele domínio do conhecimento, e à posterior dedução de todas as outras proposições verdadeiras desse domínio, a partir delas. Surge com Euclides e
As definições pretendem substancialmente explicitar os conceitos da geometria (“ponto é aquilo que não tem partes”; “linha é comprimento sem largura”, etc.). Os postulados representam verdades indubitáveis típicas do saber geométrico (“pode-se levar uma reta de qualquer ponto a qualquer ponto”; “todos os ângulos retos são iguais”; etc.). Os axiomas são verdades que valem universalmente, não só na geometria (“o todo é maior que a parte”; “coisas que são iguais a uma mesma coisa são iguais entre si”, etc.).
Aristóteles (estará plenamente desenvolvida no início do século XX com a escola formalista de Hilbert) a busca de uma economia do pensamento(um bom texto sobre o assunto pode ser encontrado em [Wil65]). A História da Computação tem um marco significativo nesse ponto da História: o começo da busca da automatização do raciocínio e do cálculo.
Mas havia um problema no sistema de Euclides: suas “evidências” não eram assim tão evidentes. O seu quinto postulado não  convenceu de modo algum, e despertou perplexidade na história do próprio pensamento grego, depois no árabe e no renascentista. No século XIX, Karl Friedrich Gauss (1777-1855) viu com toda a clareza a não demonstrabilidade do quinto postulado e a possibilidade da construção de sistemas geométricos não euclidianos. Janos Boulay (1802-1860), húngaro, e Nicolai Ivanovic Lobacewskiy (1793-1856), russo, trabalhando independentemente, elaboraram uma geometria na qual o postulado da paralela não vale mais.
A conseqüência desses fatos foi a eliminação dos poderes da intuição na fundamentação e elaboração de uma teoria geométrica: os axiomas não são mais “verdades evidentes” que garantem a “fundação” do sistema geométrico, mas puros e simples pontos de partida, escolhidos convencionalmente para realizar uma construção dedutiva. Mas, se os axiomas são puros pontos de partida, quem garantirá que, continuando-se a deduzir teoremas, não se cairá em contradição?
Esta questão crucial dos fundamentos da matemática levará aos grandes estudos dos finais do século XIX e inícios do XX e será o ponto de partida do projeto formalista de David Hilbert, assim como de outras tentativas de se fundamentar a matemática na lógica e na teoria dos conjuntos, como as propostas por Frege, Russell e Cantor. E será dessa seqüência de sucessos e fracassos que se produzirá a base da Computação, com Turing, von Neumann, Post, Church, e outros mais.

4.1.6  Diophantus, al-Kharazmi e o desenvolvimento da Álgebra

O seguinte problema no Rhind Papyrus, do Museu britânico em Londres, foi escrito por volta do ano 1650 a.C.:

“Divida 100 pães entre 10 homens, incluindo um barqueiro, um capataz e um vigia, os quais recebem uma dupla porção cada. Quanto cabe a cada um? Isto naturalmente pode ser resolvido usando-se Álgebra”.

O primeiro tratado de Álgebra foi escrito pelo grego Diophantus (200 - 284), da cidade de Alexandria, por volta do ano 250. O seu Arithmetica, composto originalmente por 13 livros dos quais somente 6 se preservaram, era um tratado “caracterizado por um alto grau de habilidade matemática e de engenho: quanto a isto, o livro pode ser comparado aos grandes clássicos da idade alexandrina anterior” [Boy74]. Antes de Diophantus, toda a ‘álgebra’ que havia, incluindo problemas, operações, lógica e solução, era expressada sem simbolismo −palavra chave sobre a qual ainda se voltará a falar −; ele foi o primeiro a introduzir o simbolismo na matemática grega. Para uma quantidade desconhecida usava um símbolo (chamado arithmos), que caracterizava um número indefinido de unidades. Pela ênfase dada em seu tratado à solução de problemas indeterminados, tal tratado tornou-se conhecido como análise diofantina, que em geral faz parte da disciplina de Teoria dos Números. Seu trabalho, contudo, não é suficiente para lhe conferir o título de pai da Álgebra.
Mas é com os persas e principalmente com os árabes que a Álgebra poderá ser efetivamente chamada de ciência. É interessante notar que ao se falar que a Geometria é uma ciência grega ou que a Álgebra é uma ciência árabe, está se afirmando algo mais do que a “casualidade” de terem sido gregos ou  árabes seus fundadores ou promotores.
Ordinariamente tendemos a pensar que o conhecimento científico independe de latitudes e culturas: uma fórmula química ou um teorema de Geometria são os mesmos em inglês ou português ou chinês e, sendo a comunicação, à primeira vista, o único problema, bastaria uma boa tradução dos termos próprios de cada disciplina. Mas não é assim. Na verdade a evolução da ciência está repleta de interferências histórico-culturais, condicionando metodologias, o surgimento de novas áreas do saber, e assim por diante. Os juristas árabes referem-se à Álgebra como “o cálculo da herança”, segundo a lei corânica, uma problemática importante dentro do Islam, e aíjá temos um exemplo de condicionamento histórico-cultural. Não foi por mero acaso quea Álgebra surgiu no califado abássida (“ao contrário dos Omíadas, os Abássidas pretendem aplicar rigorosamente a lei religiosa à vida cotidiana” [AG81]), no seio da “Casa da Sabedoria” (Bayt al-Hikma) de Bagdá, promovida pelo califa Al-Ma’amun; uma ciência nascida em língua árabe e antagônica da ciência grega.
Embora hoje a Álgebra possa parecer objetiva e axiomática, com uma sintaxe de estruturas operatórias e destituída de qualquer alcance semântico, ela é o resultado da evolução da velha al’jabr, “forjada por um contexto cultural em que não são alheios elementos que vão desde as estruturas gramaticais do árabe à teologia muçulmana da época”. Muhammad Ibn Musa Al-Khwarizmi (780 - 850), matemático e astrônomo persa, foi membro da “Casa da Sabedoria”, a importante academia científica de Bagdá, que alcançou seu resplendor com Al-Ma’amun (califa de 813 a 833). A ele, Al-Khwarizmi dedicou seu Al-Kitab al-muhtasar fy hisab al-jabr wa al-muqabalah (“Livro breve para o cálculo da jabre da muqabalah”). Al-jabr,que significa força que obriga, restabelecer, precisamente porque a Álgebra é “forçar cada termo a ocupar seu devido lugar”. Já no começo do seu Kitab, Al-Khwarizmi distingue seis formas de equação, às quais toda equação pode ser reduzida(e, canonicamente resolvida). Na notação atual:
Neste sentido foi o matemático grego que maior influência teve sobre a moderna teoria dos números. Em particular Fermat foi levado ao seu ‘último’ teorema quando procurou generalizar um problema que tinha lido na Arithmeticade Diophantus: dividir um dado quadrado em dois quadrados (ver F.E. Robbins, P.Mich. 620: A Series of Arithmetical Problems, Classical Philology, pg 321-329, EUA, 1929).
Apenas sob certo aspecto isto se justificaria. Em uma visão um tanto arbitrária e simplista poderíamos dividir o desenvolvimento da álgebra em 3 estádios: (1) primitivo, onde tudo é escrito em palavras; (2) intermediário, em que são adotadas algumas simplificações; (3) simbólico ou final. Neste contexto, Arithmeticadeve ser colocada na segunda categoria.
Restabelecer, por algo no seu devido lugar, restabelecer uma normalidade. Como observa a palavra tajbir significa ortopedia e jibarathsignifica redução, no sentido médico (por o osso no devido lugar) e na Espanha, no tempo em que os barbeiros acumulavam funções, podia-se ver a placa “Algebrista e Sangrador” em barbearias.
Al-jabré a operação que soma um mesmo fator (afetado do sinal +) a ambos os membros de uma equação, para eliminar um fator afetado pelo sinal -. Já a operação que elimina termos iguais de ambos os lados da equação é al-muqabalahque significa estar de frente, cara a cara, confrontar. Por exemplo: em um problema onde os dados podem ser colocados sob a forma 2x2+100–20x=58, Al-Khwarizmi procede do seguinte modo:
2x+100=58+20x (por al-jabr). Divide por 2 e reduz os termos semelhantes: 2x+21= 10x (por al-muqabalah). E o problema já está canonicamente equacionado.
Al-Kharazmi introduziu a escrita dos cálculos no lugar do uso do ábaco. De seu nome derivaram as palavras, como já citado acima na história do desenvolvimento do conceito de número, algarismoe algoritmo [Kar61]. Embora não muito visível ainda, deve-se chamar a atenção para essa disciplina da Álgebra, que deve ser colocada entre as ciências que fundamentaram o desenvolvimento da
A palavra algoritmo na matemática designa um procedimento geral de cálculo, que se desenvolve, por assim dizer, automaticamente, poupando-nos esforço mental durante o seu curso; este termo será depurado e aproveitado dentro da Computação. Dele se tornará a falar mais à frente Computação. Pois o computador e todos os instrumentos que o precederam (réguas de cálculo, máquina de Pascal, a calculadora de Leibniz, a máquina analítica de Babbage, etc.) são somente as manifestações práticas que foram surgindo, com naturalidade, em resultado da busca pelo homem de reduzir os problemas a expressões matemáticas, resolvendo-as segundo regras. E isto, há muitos séculos, já tinha tomado o nome de Álgebra, a “arte dos raciocínios perfeitos” como dizia Bhaskara, o conhecidomatemático hindu do século XII. Com os árabes, depois de relativo obscurecimento da cultura grega, dá-se continuidade ao processo que proporcionará as bases fundamentais para o raciocínio automatizado, fundamental na Ciência da Computação.

4.1.7  A automatização do raciocínio

Ainda dentro do período acima estabelecido (4.200 a.C. até meados do ano 1600 d.C) iniciou-se concretização de uma antiga meta: a idéia de se reduzir todo raciocínio a um processo mecânico, baseado em algum tipo decálculo formal. Isto remonta a Raimundo Lúlio. Embora negligenciado pela ciência moderna, Raimundo Lúlio (1235 - 1316), espanhol, figura pletórica de seu tempo, em seu trabalho Ars Magna(1305 - 1308), apresentou a primeira tentativa de um procedimento mecânico para produzir sentenças logicamente corretas [Her69]. Lúlio acreditava que tinha encontrado um método que permitia, entre outras coisas, tirar todo tipo de conclusões, mediante umsistema de anéis circulares dispostos concentricamente, de diferentes tamanhos e graduáveis entre si, com letras em suas bordas.
Invenção única, tentará cobrir e gerar, representando com letras −que seriam categorias do conhecimento −, todo o saber humano, sistematizado em uma gramática lógica. Conforme Hegel: “A tendência fundamental da ‘arte’ de Raimundo Lúlio consistia em enumerar e ordenar todas as determinações conceituais a que era possível reduzir todos os objetos, as categorias puras com referência àsquais podiam ser determinados, para, desse modo, poder assinalar facilmente, com respeito a cada objeto, os conceitos a ele aplicáveis. Raimundo Lúlio é, pois, um pensador sistemático, ainda que ao mesmo tempo mecânico.
Deixou traçada uma tabela em círculos nos quaisse acham inscritos triângulos cortados por outros círculos. Dentro desses círculos, ordenava as determinações conceituais, com pretensões exaustivas; uma parte dos círculos é imóvel, a outra tem movimento. Vemos, com efeito, seis círculos, dois dos quais indicam ossujeitos, três os predicados e o sexto as possíveis perguntas. Dedica nove determinações a classe, designando-as com as nove letras B C D E F G H I K. Obtém, desse modo, nove predicados absolutos, que aparecem escritos ao redor de seu quadro: a bondade, a magnitude, a duração, o poder, a sabedoria, a vontade, a virtude, a verdade, a magnificência; em seguida,vêm nove predicados relativos: a diferença, a unanimidade, a contraposição, o princípio, a metade, o fim, o ser maior, o ser igual e o ser menor; em terceiro lugar, temos as perguntas: sim?, quê?, de onde?, por quê?, quão grande?, de que qualidade?, quando?, de onde?, como e com quê?, a última das quais encerra duas determinações; em quarto lugar,aparecem nove substâncias (esse), a saber: Deus (divinum), os anjos (angelicum), o céu (coeleste), o homem (humanum), Imaginativum, Sensitivum, Vegetativum, Elementativum; em quinto lugar, nove acidentes, quer dizer, nove critérios naturais: a quantidade, a qualidade, a relação, a atividade,a paixão, o ter, a situação, o tempo e o lugar; por último, nove critérios morais, que são as virtudes: a justiça, a prudência, a valentia, a temperança, a fé, a esperança, o amor, a paciência e a piedade, e nove vícios: a inveja, a cólera, a inconstância, a avareza, a mentira, a gula, a devassidão, o orgulho e a preguiça (acedia). Todos esses círculos tinham de ser colocados necessariamente de determinado modo para poder dar como resultado as combinações desejadas. Conforme as regras de colocação, segundo as quais todas as substâncias recebem os predicados absolutos e relativos adequados a estes, deviam ser esgotados a ciência geral, a verdade e o conhecimento de todos os objetos concretos.” [Roc81].
Os procedimentos estabelecidos por Lúlio não foram muito válidos. Mas o mais importante em Lúlio é a idéia concebida, genial sob certo aspecto. Tanto que seu trabalho influenciará muitos matemáticos famosos, do nível de um Cardano (século XVI), Descartes (século XVII), Leibniz (séculos XVII/XVIII), Cantor (séculos XIX/XX), entre outros. Raimundo Lúlio é considerado o precursor da análise combinatória. Como dirá R. Blanché: “encontramos em Lúlio, pelos menos em germe e por mais que ele não soubesse tirar partido disso por inabilidade, duas idéias que iriam setornar predominantes nas obras de Lógica, primeiro em Leibniz e depois em nossos contemporâneos: as idéias de característica e de cálculo (...). Com a ajuda desse simbolismo, taisautores pretendem permitir que as operações mentais, freqüentemente incertas, fossem substituídas pela segurança de operações quase mecânicas, propostas de uma vez por todas” ([RA91], volume III).
Pode-se ver em Raimundo Lúlio os primórdios do desenvolvimento da Lógica Matemática, isto é, de um novo tratamento da ciência da Lógica: o procurar dar-lhe uma forma matemática. O interesse deste trabalho é caracterizar a Lógica Matemática, sem aprofundar nas discussões filosóficas −ainda em aberto −sobre os conceitos “lógica matemática” e “lógica simbólica”, se é uma lógicadistinta da ciência matemática ou não, pois sem dúvida alguma a Computação emergirá dentro de um contexto da evolução deste novo tratamento da lógica.
A Lógica Matemática ergue-se a partir de duas idéias metodológicas essencialmente diferentes. Por um lado é um cálculo, daí sua conexão com a matemática. Por outro lado, caracteriza-se também pela idéia de uma demonstração exatae, nesse sentido, não é uma imitação da matemática nem esta lhe serve de modelo, mas pelo contrário, à Lógica caberá investigar os fundamentos da matemática com métodos precisos e oferecer-lhe o instrumento para uma demonstração rigorosa.
A palavra Álgebra voltará a aparecer com o inglês Robert Recorde(1510?-1558), em sua obra Pathway of Knowledge(1551), que introduz o sinal de ‘=’ e divulga os símbolos ‘+’ e ‘−‘, introduzidos por John Widmann (Arithmetica, Leipzig, 1489). Thomas Harriot(1560-1621) prosseguirá o trabalho de Recorde, inventando os sinais ‘>’ e ‘<’. Willian Oughtred(1574-1621), inventor da régua de cálculo baseada nos logaritmos de Napier, divulgou o uso do sinal ‘×’, tendo introduzido os termos seno, coseno e tangente. Em 1659 J.H. Rahn usou o sinal ‘÷’. Todos esses matemáticos ajudaram a dar à Álgebra sua forma mais moderna.

4.2  A mecanização do cálculo

Se é aceito o ponto de vista de estudiosos como Needham [Nee59], a data de 1600 pode ser vista como um bom divisor de águas dentro da história da ciência em geral. Vale a pena lembrar que o estudo da matemática no tempo anterior a essa data, na Europa, não havia avançado substancialmente em relação ao mundo árabe, hindu ou chinês. A álgebra árabe fora perfeitamente dominada e tinha sido aperfeiçoada, e a trigonometria se tornara uma disciplina independente [Boy74]. O casamento de ambas pela aplicação dos métodos algébricos no terreno dageometria foi o grande passo e Galileu (1564 - 1642) aí tem um papel preponderante. Ele uniuo experimental ao matemático, dando início à ciência moderna. Galileu dá uma contribuiçãodecisiva a uma formulação matemática das ciências físicas. A partir de então, em resultado desse encontro da matemática com a física, a ciência tomou um novo rumo, a um passo mais rápido, e rapidamente as descobertas de Newton (1643 -1727) sucedem às de Galileu.
Trata-se de um período de transição porexcelência, que preparou o caminho para uma nova matemática: não já uma coleção detruques, como Diophantus possuíra, mas uma forma de raciocinar, com uma notação clara. É o começo do desenvolvimento da idéia de formalismo na Matemática, tão importante  depois para a fundamentação teórica da Computação.

4.2.1  Leibniz, o precursor da Lógica Matemática moderna

A Lógica Moderna começou no século XVII com o filósofo e matemático alemão Gottfried Wilhelm Leibniz (1646 - 1716). Seus estudos influenciaram, 200 anos mais tarde, vários ramos da Lógica Matemática moderna e outras áreas relacionadas, como por exemplo a Cibernética (Norbert Wiener dizia que “se fosseescolher na História da Ciência um patrono para a Cibernética, elegeria Leibniz” [Wie70]).
Entre outras coisas, Leibniz queria dotar a Metafísica (aquela parte da Filosofia que estuda o “ser” em si) de um instrumento suficientemente poderoso que a permitisse alcançar o mesmo grau de rigor que tinha alcançado a Matemática. Parecia-lhe que o problema das interrogações e polêmicas não resolvidas nas discussões filosóficas, assim como a insegurança dos resultados, eram fundamentalmente imputáveis à ambigüidade dos termos e dos processos conclusivos da linguagem ordinária.Leibniz tentaria elaborar sua nova lógica precisamente como projeto de criação de uma lógica simbólica e de caráter completamente calculístico, análogos aos procedimentos matemáticos.
Historicamente falando, tal idéia já vinha sendo amadurecida, depois dos rápidos desenvolvimentos da Matemática nos séculos XVI e XVII, possibilitados pela introdução do simbolismo. Os algebristas italianos do séculoXVI já tinham encontrado a fórmula geral. Lembrando algo que já foi dito, é importante ressaltar que desde suas origens aristotélicas a lógica havia assumido claramentealguns recursos fundamentais, como a estrutura formal, o emprego de certo grau de simbolismo, a sistematização axiomática e o identificar-se com a tarefa de determinar as “leis” do discurso (tomando, por exemplo, a linguagem como tema de estudo), características que foram assumidas pela Lógica Moderna. para a resolução das equações de terceiro e quarto graus, oferecendo à Matemática um método geral que tinha sido exaustivamente buscado pelos antigos e pelos árabes medievais. Descartes e Fermat criaram a geometria analítica,e, depois de iniciado por Galileu, o cálculo infinitesimal desenvolveu-se com grande rapidez, graças a Newton e aopróprio Leibniz. Ou seja, as matemáticas romperam uma tradição multissecular que as havia encerrado no âmbito da geometria, e estava se construindo um simbolismo cada vez mais fácil de manejar e seguro, capaz de funcionar de uma maneira, por assim dizer, mecânica e automática, sujeito a operações que, no fundo, não eram mais do que regras para manipulação de símbolos, sem necessidade de fazer uma contínua referência a conteúdos geométricos intuitivos.
Leibniz deu-se conta de tudo isto e concebeu, também para a dedução lógica, uma desvinculação análoga com respeito ao conteúdo semântico das proposições, a qual além de aliviar o processo de inferência do esforço de manter presente o significado e as condições de verdade da argumentação, pusesse a dedução a salvo da fácil influência que sobre ela pode exercer o aspecto material das proposições. Deste modo coube a ele a descoberta da verdadeira natureza do “cálculo” em geral,além de aproveitar pela primeira vez a oportunidade de reduzir as regras da dedução lógicaa meras regras de cálculo, isto é, a regras cuja aplicação possa prescindir da consideração do conteúdo semântico das expressões. Leibniz influenciou seus contemporâneos e sucessores através de seu ambicioso programa para a Lógica. Esse programa visavacriar uma linguagem universal baseada em um alfabeto do pensamento ou characteristica universalis, uma espécie de cálculo universal para o raciocínio.
Na visão de Leibniz a linguagem universal deveria ser como a Álgebra ou como uma versão dos ideogramas chineses: uma coleção de sinais básicos que padronizassem noções simples não analíticas. Noções mais complexas teriam seu significado através de construções apropriadas envolvendo sinais básicos, queiriam assim refletir a estrutura das noções complexas e, na análise final, a realidade. O uso de numerais para representar noções não analíticas poderia tornar possível que as verdades de qualquer ciência pudessem ser “calculadas” por operações aritméticas, desde queformuladas na referida linguagem universal([Bri79a], volume XI). Com isso se poderia substituir o genérico dialoguemos por um mais exato calculemos. Conforme o próprio Leibniz,“Quando orietur controversiae, non magis disputatione opus erit inter duo philosophos, quam inter duo computistas. Sufficet enin calamos in manus sumere, sedereque ad ábacos et sib mutuo (accito si placet amico) dicere: calculemus”.
As discussões não seriam, assim, disputascontrovertidas, de resultado duvidoso e final não concluído, mas sim formas de cálculo que estabelecessem a maior ou menor verdade de uma proposição. Essa idéia de Leibniz sustentava-se em dois conceitos intimamente relacionados: o de um simbolismo universal e o de um cálculo de raciocínio (isto é, um método quase mecânico de raciocínio). Isso, para a História da Computação, tem um particular interesse, pois esse calculus ratiocinatorde Leibniz contém o embrião da machina ratiocinatrix, a máquina de raciocinar buscada por Turing e depois pelos pesquisadores dentro do campo da Inteligência Artificial. Leibniz, assim como Boole, Turing, e outros – basta lembrar o ábaco, o
Quando aparecer uma controvérsia, já não haverá necessidade de uma disputa entre dois filósofos mais do que a que há entre dois calculistas. Bastará, com efeito, tomar a pena na mão, sentar-se à mesa (ad abacus) e (ao convite de um amigo, caso se deseje), dizer um ao outro: Calculemos!” [Boc66].
Deve-se observar que destas conceituações descenderam a notação da matemática e da lógica do século XX. O próprio Leibniz, e Pascal um pouco antes, procuraram construir uma máquina de calcular. Nota-se portanto que o mesmo impulso intelectual que o levou ao desenvolvimento da Lógica Matemática o conduziu à busca da mecanização dos processos de raciocínio.
Interessa também chamar a atenção sobre a idéia de uma linguagem artificial que já aparece em Leibniz. Como já foi dito, ele captoumuito bem as inúmeras ambigüidades a que estão submetidas as linguagens de comunicação ordinárias e as vantagens que apresentam os símbolos (que ele chamava notae) da Aritmética e Álgebra, ciências nas quais a dedução consiste no emprego de caracteres. Ao querer dar à Lógica uma linguagem livre de ambigüidades e ao procurar associar a cada idéia um sinal e obter a solução de todos os problemas mediante a combinação desses sinais, Leibniz acabou provocando um novo desenvolvimento da própria lógica.
A idéia de uma linguagem artificial ou a redução do raciocínio ao cálculo, como já visto em Lúlio e agora em Leibniz, não é, portanto, patrimônio do século XX. A contribuição de Leibniz ao desenvolvimento da lógica aparece sob dois aspectos: ele aplicou com sucesso métodos matemáticos para a interpretação dos silogismos aristotélicos, e apontou aquelas partes da Álgebra que estão abertas a uma interpretação não aritmética ([Bri79a], volume XI). Pela primeira vez se expôs de uma maneira clara o princípio do procedimento formal. Leibniz tornou-se assim o grande precursor da Lógica Matemática.
Talvez se pudesse perguntar como é possível que muitos apresentem a Lógica Simbólica como fruto do nosso tempo, enquanto teve sua origem na segunda metade do século XVII. É que, na realidade, a contribuição de Leibniz ficou substancialmente reduzida a um mero programa, do qual só executou alguns fragmentos, muito parciais se bem que muito interessantes também, capazes de nos dar uma idéia de como concebia sua obra. Nem sequer seus seguidores diretos levaram para a frente a construção do cálculo lógico mais além de um nível muito rudimentar. Provavelmente a excessiva magnitude do plano de sua characteritica universaliso tenha seduzido, afastando Leibniz de objetivos mais modestos porém alcançáveis, como o de construir o primeiro cálculo lógico autêntico.
Ainda dentro desses primeiros passos mais concretos em direção à construção de um dispositivo para cálculo automático, não se pode deixar de falar do ilustre francês Blaise Pascal (1623-1662), já acima citado, que foi matemático, físico, filósofo e brilhante escritor de religião, fundador da teoria moderna das probabilidades. Aos 17 anos já publicava ensaios de matemática que impressionaram a comunidadedo seu tempo. Antecedendo a Leibniz, montou a primeira máquina de cálculo digital para ajudar nos negócios do pai em 1642. Iria produzir ainda outras 49 máquinas a partir deste primeiro modelo. Estudos posteriores em geometria, hidrodinâmica, hidrostática e pressão atmosférica o levaram a inventar a seringa e prensa hidráulica e descobrir as famosas Leis dePressão de Pascal. Após intensa experiência mística, entrou em 1654 para o convento dePort-Royal, onde escreveu pequenos opúsculos místicos. Os últimos anos de sua vida foram dedicados à pesquisa científica [Wil97].

4.2.2  O problema da notação

O símbolo não é uma mera formalidade, é a verdadeira essência da álgebra. Sem o símbolo, o objeto é somente uma percepção humana e reflete todas as fases sob as quais os sentidos humanos o captam; substituído por um símbolo o objeto torna-se uma completa abstração, um mero operando sujeito a determinadas operações específicas.

Tobias Dantzig

Nas ciências, as descobertas que podem ser compreendidas e assimiladas rapidamente por outros são fonte de progresso imediato. E na Matemática, o conceito de notação está relacionado com isso. Basta lembrar os algarismos romanos e pensar na complexidade que envolve, por exemplo a multiplicação, de MLXXXIV por MMLLLXIX.
Há uma forte analogia entre a história da Álgebra e a da Aritmética. No caso desta última, os homens esforçaram-se durante centenas de anos usando uma numeração inadequada, devido à ausência de um símbolo parao ‘nada’ (zero). Na Álgebra, a ausência de uma notação reduziu-a a uma coleção de regras fortuitas para a solução de equações numéricas. A descoberta do zero criou a Aritmética que é hoje ensinada e utilizada, e o mesmo se pode dizer em relação à notação, queacabou por introduzir uma nova etapa na história da Álgebra.
As letras liberaram a Álgebra da dependência do uso de palavras, sujeitas às ambigüidades e diferentes interpretações a queestá sujeito o discurso de uma linguagem natural (português, inglês, e outras). Mais ainda:a letra ficou livre dos tabus que a associavam à palavra. Ela é agora um símbolo cujo significado pode transcender o objeto simbolizado. O ‘x’ de uma equação tem existência própria, independente do objeto que represente. Importante também é o fato de se poder operar com letras e transformar expressões algébricas com literais, mudando um sentença qualquer para diferentes formas com sentido equivalente. A Álgebra não se torna somente uma maneira mais econômica de se escrever, mas generaliza procedimentos. Por exemplo: expressões tais como 2x + 3, 3x – 5, 2x + 8, 4x +7 tinham antes uma individualidade própria, eram fechadas em si mesmas através das palavras com que eram expressas. Sua resolução dependia de uma apropriada interpretação e manipulação. Com a notação através de literais é possível passar de um individual para um coletivo. A forma linear ax+b, a forma quadrática  ax²+bx+csão agora espécies, ‘moldes’ específicos, e graças a isso foi possível o nascimento da teoria geral das funções que é a base de toda matemática aplicada [Dan54].
A notação de Leibniz usada para o cálculo contribuiu mais do que a de Newton para a difusão das novas idéias sobre integrais, na época. Pense-se por um momento como se resolve ax = b. Imediatamente pode ser dado como resposta que x = b/ae haveria surpresa se alguém respondesse a = b/x. É que normalmente se usam as últimas letras do alfabeto para representar as incógnitas e as do começo para representar as quantidades conhecidas. Mas isso não foi sempre assim, e somente no séculoXVII, a partir de Viète e com Descartes, tais convenções começaram a ser usadas [Boy74].
Geralmente tende-se a apreciar o passado desde o sofisticado posto de observação do tempo atual. É necessário valorizar e revalorizar este difícil e longo passado de pequenas e grandes descobertas. Leibniz, em seu esforço no sentido de reduzir as discussões lógicas a uma forma sistemática que pudesse ser universal, aproximou-se da Lógica Simbólica formal: símbolos ou ideogramas deveriam ser introduzidos para representar um pequeno número de conceitos fundamentais necessários ao pensamento. As idéias compostas deveriam ser formadas a partir desses “alfabetos” do pensamento humano, do mesmo modo como as fórmulas são desenvolvidas na Matemática [Boy74]. Isso o levou, entre outras coisas, a pensar em um sistema binário para a Aritmética e a demonstrar a vantagem de tal sistema sobre o decimal para dispositivos mecânicos de calcular. A idéia de uma lógica estritamente formal – da construção de sistemas sem significado smântico, interpretáveis a posteriori – não tinha surgido. Duzentos anos mais tarde, GeorgeBoole formularia as regras básicas de um sistema simbólico para a lógica matemática, refinado posteriormente por outros matemáticos e aplicado à teoria dos conjuntos ([Bri79a], volume III). A álgebra booleanaconstituiu a base para o projeto de circuitos usados nos computadores eletrônicos digitais.

4.3  A lógica matemática no século XIX

Newton e Leibniz descobriram o princípio fundamental do cálculo de que uma integração pode ser feita mais facilmente pela inversão do processo de diferenciação, no cálculo das áreas[RA91]. Em 1673 Gottfried Leibniz, usando uma engrenagem dentada, construiu uma calculadora capaz de multiplicar, na qual um número era repetido e automaticamente somado a um acumulador.
A passagem do século XVIII para o séculoXIX marca o início de um novo tempo na História da matemática, e, mais do que qualquer período precedente, mereceu ser conhecido como a sua “Idade áurea”, e que afetará diretamente a evolução em direção ao surgimento e fundamentação da Ciência da Computação. O que se acrescentou ao corpo da Matemática durante esses cem anos, supera de longe tanto em quantidade como em qualidade a produção total combinada de todas as épocas precedentes. Com uma possível exceção do período conhecido como “Idade heróica”, na Grécia antiga, foi uma das mais revolucionárias etapas do desenvolvimento dessa ciência, e,conseqüentemente, também da Computação.
Será particularmente objeto de estudo a evolução da Lógica Simbólica −ou Lógica Matemática − que teve Leibniz como predecessor distante. A partir de meados do século XIX, a lógica formal se elabora como um cálculo algébrico, adotando um simbolismo peculiar para as diversas operações lógicas. Graças a esse novo método, puderam-se construir grandes sistemas axiomáticos de lógica, de maneira parecida com a matemática, com os quais sepodem efetuar com rapidez e simplicidade raciocínios que a mente humana não consegue espontaneamente.
A Lógica Simbólica −Lógica Matemática a partir daqui −, tem o mesmo objeto que a lógica formal tradicional: estudar e fazer explícitas as formas de inferência, deixando de lado − por abstração − o conteúdo de verdades que estas formas possam transmitir [San82]. Não se trata aqui de estudar Lógica, mas de chamara atenção para a perspectiva que se estava abrindo com o cálculo simbólico: a automatização de algumas operações do pensamento. A Máquina de Turing, como será visto, conceito abstrato que efetivamente deu início à era dos computadores, baseou-se no princípio de que a simples aplicação de regras permite passar mecanicamente de uns símbolos a outros, sistema lógico que foi inaugurado pelo matemático George Boole.
Entretanto a lógica booleana estava limitada ao raciocínio proposicional, e somente mais tarde, com o desenvolvimento dos quantificadores, a lógica formal estava pronta para ser aplicada ao raciocínio matemático em geral.Os primeiros sistemas foram desenvolvidos por F.L.G. Frege e G. Peano. Ao lado destes, será necessário citar George Cantor (1829 - 1920), matemático alemão que abriu um novo campo dentro do mundo da análise, nascida com Newton e Leibniz, com sua teoria sobre conjuntos infinitos [Bel37].
No início do século XX a Lógica Simbólica se organizará com mais autonomia em relação à matemática e se elaborará em sistemasaxiomáticos desenvolvidos, que se colocam em alguns casos como fundamento da própriamatemática e que prepararão o surgimento do computador.

4.3.1  Boole e os fundamentos da Lógica Matemática e da Computação

O inglês George Boole (1815 - 1864) é considerado o fundador da Lógica Simbólica ([Bri79a], volume III). Ele desenvolveu com sucesso o  primeiro sistema formal para raciocínio lógico. Mais ainda, Boole foi o primeiro a enfatizar a possibilidade de se aplicar o cálculo formal a diferentes situações, e fazer operações com regras formais, desconsiderando noções primitivas.
Sem Boole, que era um pobre professor autodidata em Matemática, o caminho pelo qual se ligou a Lógica à Matemática talvez demorasse muito a ser construído. Com relação à Computação, se a Máquina Analítica de Babbage (ver capítulo sobre a Pré-História Tecnológica) foi apenas uma tentativa bem inspirada (que teve pouco efeito sobre os futuros construtores do computador), sem a álgebra booleana, no entanto, a tecnologia computacional não teria progredido com facilidade até a velocidade da eletrônica.
Durante quase mais de dois mil anos, a lógica formal dos gregos, conhecida pela sua formulação silogística, foi universalmente considerada como completa e incapaz de sofrer uma melhora essencial. Mais do que isso, a lógica aristotélica parecia estar destinada a ficar nas fronteiras da metafísica, já que somente se tratava, a grosso modo, de uma manipulação de palavras. Não se havia ainda dado o salto para um simbolismo efetivo, embora Leibniz já tivesse aberto o caminho com suas idéias sobre o “alfabeto do pensamento”.
Foi Boole, em sua obra The Mathematical Analysis of Logic (1847), quem forneceu uma idéia clara de formalismo, desenvolvendo-a de modo exemplar. Ele percebeu que poderia ser construída uma álgebra de objetos que não fossem números, no sentido vulgar, e que tal álgebra, sob a forma de um cálculo abstrato, seria capaz de ter várias interpretações [Kne68].
O que chamou a atenção na obra foi a clara descrição do que seria a essência do cálculo, isto é, o formalismo, procedimento, conforme descreveu, “cuja validade não depende da interpretação dos símbolos mas sim da exclusiva combinação dos mesmos” [Boc66]. Ele concebeu a lógica como uma construção formal à qual se busca posteriormente uma interpretação.
Boole criou o primeiro sistema bem sucedido para o raciocínio lógico, tendo sido pioneiro ao enfatizar a possibilidade de se aplicaro cálculo formal em diferentes situações e fazer cálculos de acordo com regras formais, desconsiderando as interpretações dos símbolos usados. Através de símbolos e operações específicas, as proposições lógicas poderiam ser reduzidas a equações e as equações silogísticas poderiam ser computadas de acordo com as regras da álgebra ordinária. Pela aplicação de operações matemáticas puras e contando com o conhecimento da álgebra booleana é possível tirar qualquer conclusão que esteja contida logicamente em qualquer conjunto de premissas específicas.
De especial interesse para a Computação, sua idéia de um sistema matemático baseado em duas quantidades, o ‘Universo’ e o ‘Nada’, representados por ‘1’ e ‘0’, o levou a inventar um sistema de dois estados para a quantificação lógica. Mais tarde os construtores do primeiro computador entenderam que um sistema com somente dois valores pode compor mecanismos para perfazer cálculos.
George Boole estava convencido deque sua álgebra não somente tinha demonstrado a equivalência entre Matemática e Lógica, como representava a sistematização do pensamento humano. Na verdade a ciência, depois dele, principalmente com Husserl, pai da Fenomenologia, demonstrará que a razão humana é mais complicada e ambígua, difícil de ser conceituada e mais poderosa que a lógica formal, mas do ponto de vista da Matemática e da Computação, a álgebra booleana foi importante, e só os anos fizeram ver, pois a lógica até Leibniz já tinha compreendido no século XVII que há alguma semelhança entre a disjunção e conjunção de conceitos e a adição e multiplicação de números mas foi difícil para ele formular precisamente em que consistia essa semelhança e como usá-la depois como base para um cálculo lógico [Kne68].
A base do hardwaresobre a qual são construídos todos os computadores digitais é formada de dispositivos eletrônicos diminutos denominados portas lógicas. É um circuito digital no qual somente dois valores lógicos estão presentes. Para se descrever os circuitos que podem ser construídos pela combinação dessas portas lógicas é necessária a álgebra booleana. então era incompleta e não explicava muitosprincípios de dedução empregados em raciocínios matemáticos elementares.
Mas, a lógica booleana estava limitada ao raciocínio proposicional, e somente após o desenvolvimento de quantificadores, introduzidospor Peirce, é que a lógica formal pôde ser aplicada ao raciocínio matemático geral. Além de Peirce, também Schröeder e Jevons aperfeiçoaram e superaram algumas restriçõesdo sistema booleano: disjunção exclusiva, emprego da letra vpara exprimir proposições existenciais,admissão de coeficientes numéricos além do 0 e 1 e o emprego do sinal de divisão.O resultado mais importante, no entanto, foi a apresentação do cálculo de uma forma extremamente axiomatizada.

4.3.2  A importância de Frege e Peano

Frege (1848 - 1925) e Peano (1858 - 1932) trabalharam para fornecer bases mais sólidas à álgebra e generalizar o raciocínio matemático [Har96]. Gottlob Frege ocupa um lugar de destaque dentro da Lógica. Embora não tão conhecido em seu tempo e bastante incompreendido, deve-se ressaltar que ainda hoje torna-se difícil descrever a quantidade de conceitos e inovações, muitos revolucionários, que elaborou de forma exemplar pela sua sistematização e clareza. Muitos autores comparam seu Begriffsschriftaos Primeiros Analíticos de Aristóteles, pelos pontos de vista totalmente geniais.
Frege foi o primeiro a formularcom precisão a diferença entre variávele constante, assim como o conceito de função lógica, a idéia de uma função de vários argumentose o conceito de quantificador. A ele se deve uma conceituação muito mais exata da teoria aristotélica sobre sistema axiomático, assim como uma clara  distinção entre lei e regra, linguagem e metalinguagem. Ele é autor da teoria da descrição e quem elaborou sistematicamente o conceito de valor. Mas isto não é tudo, pois todas estas coisas são apenas produtos de um empreendimento muito maior e fundamental, queo inspirou desde suas primeiras pesquisas: uma investigação das características daquilo que o homem diz quando transmite informação por meio de juízos.
Na verdade o que Frege chamou de Lógica – assim como seus contemporâneos Russell e Wittgenstein – não é o que hoje é chamado Lógica, fruto do formalismo e da teoria dos conjuntos que acabaram por predominarentre os matemáticos, mas sim o que se denomina semântica, uma disciplina sobre o conteúdo, natureza desse conteúdo e estrutura. Ele gastou considerável esforço na separação de suas concepções lógicas daquelas concepções dos 'lógicos computacionais' como Boole, Jevons e Schröeder. Estes estavam, como já foi dito, empenhados no desenvolvimento de um cálculo do raciocínio como Leibniz propusera, mas Frege queria algo mais ambicioso: projetar uma língua characteristica. Dizia ele que uma das tarefas da filosofia era romper o domínio da palavra sobre o espírito humano. Frege procurou usar um sistema simbólico, que até então somente se pensava para a matemática, também para a filosofia: um simbolismo que retratasse o que se pode dizer sobre as coisas. Ele buscava algo que não somente descrevesse ou fosse referido a coisas pensadas, mas o próprio pensar [Cof91].
Os lógicos tradicionais estavam basicamente interessados na solução de problemas tradicionais de lógica, como por exemplo a validade. O objetivo de Frege foi mais além: entrou no campo da semântica, do conteúdo, do significado, onde encontrou o fundamento último da inferência, da validade, etc. Frege acabou derivando para uma filosofia da lógica e da matemática e influenciou diretamente a Russell, David Hilbert, Alonzo Church e Carnap. Destes, Hilbert e Church têm um papel decisivona História conceitual da Ciência da Computação.
Frege desejava provar que não somente o raciocínio usado na matemática, mas também os princípios subjacentes – ou seja, toda a matemática – são pura lógica. Porém ele expressou suas buscas e resultados – pelos quaisacabou sendo considerado um dos pais da Lógica moderna, de uma forma excessivamente filosófica, em uma notação matemática não convencional. O mérito maior dele foi elaborar uma concepção lógica mais abrangente do que a Lógica de Aristóteles. Em um procedimento que lembra a “characteristica universalis”, Frege construiu um sistema especial de símbolospara desenvolver a lógica de maneira exata e foi muito além das proposições e dos argumentos. Em sua grandes obras, Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens(Ideografia, uma linguagem formalizada do pensamento puro construída de modo aritmético) e Grundgesitze der Arithmetik.
Begriffsschriflich abgeleitet(Leis Fundamentais da Aritmética, Ideograficamente Deduzidas), está contida de modo explícito e plenamente caracterizado uma série de conceitos – conectivos, função, função proposicional, quantificadores, etc. – que seriam vitais para a Lógica Matemática a partir de então [Gom97].
Foi através do contato com a obra de Frege que Bertrand Russell (1872 - 1970) procurou levar avante a idéia de construir todaa matemática sobre bases lógicas, convencido de que ambas são idênticas. Os postulados fregianos, adotados primeiramente por Peano, foram incorporados por Russell, que estendeu as teses logicistas de Frege à Geometria e às disciplinas matemáticas em geral.
Peano tinha objetivo semelhante a Frege, mas mais realista. Ele desenvolveu uma notação formal para raciocínio matemático que procurasse conter não só a lógica matemática, mas todos os ramos mais importantes dela. O simbolismo de Peano e seus axiomas – dos quais dependem muitas construções rigorosas naálgebra e na análise – “representam a mais notável tentativa do século XIX de reduzir a aritmética comum, e portanto a maior parte da matemática, a um puro simbolismo formal. Aqui o método postulacional atingiu novo nível de precisão, sem ambigüidade de sentido, sem hipóteses ocultas” [Boy74]. Para maiores detalhes, ver anexo sobre A Aritmética de Peano.
Como já foi dito, a idéia lançada por Leibniz de uma linguagemfilosófica que seria um simbolismo através do qual o homem estaria em condições de expressar seus pensamentos com plena clareza e dirimir dúvidas através de simples cálculos. Sobre número, dedução, inferência, proposições, premissas, etc. Já Hilbert procurou colocar em prática a teoria da demonstração de Frege, e pode-se ver nessas palavras deste as idéias implementadas posteriormente no programa hilbertiano: “a inferência procede, pois, em meu sistema de escrita conceitual (Begriffsschrift), seguindo uma espécie de cálculo. Não me refiro a este em sentido estrito, como se fosse um algoritmo que nele predominasse, (...), mas no sentido de queexiste um algoritmo total, quer dizer, um conjunto de regras que resolvem a passagem deuma proposição ou de duas, a outra nova, de tal forma que nada se dá que não esteja de acordo com estas regras. Minha meta é, pois, uma ininterrupta exigência de precisão no processo dedemonstração, e a máxima exatidão lógica, ao mesmo tempo que clareza e brevidade” [Boc66].
Pode-se notar a partir desse momento uma guinada no conceito de Lógica: os objetos da investigação lógica já não são mais as próprias fórmulas, mas as regras de operação pelas quais se formam e se deduzem.

4.4  O desenvolvimento da Lógica Matemática

Uma das metas dos matemáticos no final do século XIX foi a de obter um rigor conceitualdas noções do cálculo infinitesimal (limite,continuidade, infinito matemático, etc.). Tal programa foi chamado de “aritmetização daanálise”, isto é, a busca da redução dos conceitos fundamentais da análise (a matemática que tem como base a teoria dos números reais) aos conceitos da aritmética (a matemática que tem como base a teoria dos número inteiros positivos, isto é, dos números naturais e, por extensão, dos números racionais).
Por exemplo, ao invés de se tomar o número imaginário  1 − como uma entidade um tanto misteriosa, pode-se defini-lo como um par ordenado de números inteiros (0,1), sobre o qual se realizam certas operações de “adição” e “multiplicação”. Analogamente, o número irracional  2se definia numa certa classe de números irracionais, cujo quadrado é menor do que 2. Dado que a Geometria podia ser reduzida à Análise (Geometria Analítica), a Aritmética vinha a se configurar como a base natural de todo o edifício matemático. O ponto culminante deste processo foram os axiomas de Peano (1899), que fundamentaram toda a Aritmética elementar posterior. Ao mesmo tempo, matemáticos como Frege,Cantor e Russell, não convencidos da “naturalidade” da base constituída pela aritmética. Eles procuravam conduzir a própria aritmética a uma base mais profunda, reduzindo o conceito de número natural ao conceito lógico de classe, ou, para recorrer a Cantor, definir número em termos de conjunto. Deste modo, a lógica das classes apresentava-se comoa teoria mais adequada para a investigação sobre os fundamentos da matemática. O esforço dos matemáticos foi o de dar à álgebra uma estrutura lógica, procurando caracterizar a matemática não tanto pelo seu conteúdo quanto pela sua forma.
Bochenski [Boc66], falando da história da Lógica Matemática, diz que a partir de 1904, com Hilbert, inicia-se um novo período dessa ciência então emergente, que se caracteriza pela aparição da Metalógica (Hilbert, Löwenheim e Scholem) e, a partir de 1930, por uma sistematização formalista dessa mesma Metalógica. Iniciaram-se discussões sobre o valor e os limites da axiomatização, o nexo entre Lógica e Matemática, o problema da verdade (Hilbert, Gödel, Tarski).
A Metalógica, em sua vertente sintáticaocupa-se das propriedades externas dos cálculos, como por exemplo, a consistência, a completude, a decidibilidade dos sistemas axiomáticos e a independência dos axiomas. Hilbert, Gödel e Church são autores nesse campo. Em sua parte semântica, a Metalógica dirige-se ao significado dos símbolos, dos cálculos com relação a um determinado mundo de objetos. Tarski, Carnap e Quino, entre outros se interessaram por estas questões.
Apareceram também novos sistemas lógicos: as lógicas naturais, de Gentzen e Jaskowski, lógica polivalente de Post e Lukasiewicz, e a lógica intuicionista de Heytings. Complementando essas idéias cabe destacaralguns sistemas originais de outros matemáticos como Schönfinkel (1924), Curry (1930), Kleene (1934), Rosser (1935) e o já citado Alonzo Church (1941). Deve-se lembrar que quase todos estes últimos, junto com o logicista inglês Alan M. Turing, acabaram por definir, antes mesmo de existir o computador propriamente, a natureza da computação, e as implicações e limites do pensamento humano através de uma máquina.

4.5  A crise dos fundamentos e as tentativas de superação

Os matemáticos são conhecidos por serem exigentes na hora de pedir uma prova absoluta antes de aceitarem qualquer afirmação. Esta reputação é claramente mostrada em uma anedota: Um astrônomo, um físico e um matemático estavam passando férias na Escócia. Olhando pela janela do trem eles avistaram uma ovelha preta no meio de um campo. “Que interessante”, observou o astrônomo, “na Escócia todas as ovelhas são pretas.” Ao que o físico respondeu: “Não, nada disso!. Algumas ovelhas escocesas são pretas.” O matemático olhou para cima em desespero e disse: “Na Escócia existe pelo menos um campo, contendo pelo menos uma ovelha e pelo menos um lado dela é preto.”(Ian Stuart, Conceitos de matemática moderna, in [Sin99])
Quando a própria Lógica Formal reflete sobre seus conteúdos. E o matemático que se especializa no estudo da lógica matemática é ainda mais rigoroso do que o matemático comum. Os matemáticos lógicos começaram a questionar idéias que os outros matemáticos consideravam certas há séculos. Por exempo, a lei da tricotomiadeclara que cada número é ou negativo, ou positivo ou então zero. Ninguém se preocupara em provar isso que parece óbvio, mas os lógicos perceberam que se não o fosse, ela poderia ser falsa, e todo o edifício matemático que dependia dessa lei desmoronaria. Apesar das disciplinas dedutivas terem atingidoum alto grau de perfeição lógica, algumas dúvidas começaram a abalar a confiança dos matemáticos: o surgimento, por volta de 1900, de inúmeros paradoxos ou antinomias, especialmente na teoria dos conjuntos. O aparecimento de tais contradições mostrava que havia algum defeito nos métodos. Será que se poderia ter certeza de que em se usando os axiomas de um sistema rigidamente lógico – o grande sonho de tantos matemáticos do início do século XX de reduzir a matemática e o conhecimento à lógica –, nunca se chegaria a uma contradição, dentro dos axiomas do sistema? Estava iminente, nos fins do século XIX, uma inevitável colisão entre matemática e filosofia. Alguns vagos conceitos metafísicos associados com o pensamento humano já tinham chamado a atenção de matemáticos das duas primeiras décadas do século XX, que passaram a procurar a verdadeira natureza do raciocínio dentro da ciência matemática. O que é um procedimento correto, qual a relação entre verdade e demonstração, é possível fornecer uma prova para todos os enunciados matemáticos verdadeiros? E o problema das ambigüidades, já que a matemática sempre foi feita através de uma linguagem natural?
Desde os antigos gregos a matemática vem acumulando mais teoremas e verdades, e, embora a maioria deles tenha sido rigorosamente provada, os matemáticos temiam que alguns casos tivessem sido aceitos sem um exame mais adequado. Os lógicos então decidiram provar todos os teoremas, a partir de princípios fundamentais. No entanto, cada verdade tinha sido deduzida de outras verdades. E  estas, por sua vez, de outras ainda mais fundamentais e assim por diante. Os lógicos acabaram por chegar aos axiomas da matemática, essas declarações essenciais tão fundamentaisque não podiam ser provadas, pois são auto-evidentes. O desafio para os lógicos era reconstruir toda a matemática a partir desses axiomas.
Uma legião de lógicos participou deste processo, lento e doloroso, usando somente um número mínimo de axiomas. A idéia era consolidar, através do raciocínio lógico e rigoroso, o que já se pensava ser conhecido. Este quadro estimulou a criatividade matemática.

A lei da tricotomia foi demonstrada no final do século XIX.

O paradoxo de Russel, o paradoxo de Cantor, o paradoxo de Burati Forti, o paradoxo de Richard, etc. Para exemplificar, vamos ao de Cantor, descoberto por ele próprio em 1899: seS é o conjunto de todos os conjuntos, então seus subconjuntos devem estar também entre os seus elementos. Conseqüentemente, o número cardinal de S não pode ser menor do que o do conjunto dos subconjuntos de S. Mas isso, pelo teorema do próprio Cantor, deveria ocorrer!
Basta ler as palavras do matemático Sylvester em sua controvérsia com Huxley. Dizia que a matemática se origina “diretamente das forças e atividades inerentes da mente humana, e da introspecção continuamente renovada daquele mundo interior do pensamento em que os fenômenos são tão variados e exigem atenção tão grande quanto os do mundo físico exterior”. Para ele, a matemática era “revelar as leis da inteligência humana”, assim como a física revela as leis do mundo dos sentidos [Cos77].
A lei comutativa da adição, por exemplo: para quaisquer números a e b, a + b = b + a. Na tentativa de se resolverem os paradoxos surgiram três grandes escolas da lógica: a Logicista, a Intuicionista e a Formalista. A escola logicista rapidamente ficou exposta a fortes críticas. Frege, Peano e Russell, devido ao seu platonismo, acreditavam em um mundo objetivo, existente por si mesmo, de entes e relações matemáticas que o pesquisador deve descobrir e não inventar. Bertrand Russell tinha objetivos ainda maiores: utilizar o instrumental da lógica como ponto de partida do pensamento filosófico, através da geração de uma linguagem perfeita. Mas a matemática, enquanto perquirição pura, independe teoricamente dessas aplicações, bastando ver as pesquisas atuais. Deve-se, no entanto, destacar o mérito dessa escola de incrementar grandemente o progresso da logística e confirmar a união íntima entre matemática e lógica.
O programa intuicionista sofreu tambémfortes críticas, principalmente a de desfigurar a matemática, tornando-a algo subjetivo e praticamente impossível. O próprio modo de se provar a não-contradição de uma teoria matemática, buscando um ‘modelo’ dos axiomas dessa teoria dentro de outra teoria já existente (e que era considerada coerente) mostrou-se pouco confiável: como dar a certeza da não-contraditoriedade dessa outra teoria? A maior parte dos matemáticos dos nossos dias afastou-se dessa linha de pensamento. Positivamente falando, sua dura crítica à matemática tradicional obrigou os especialistas nos fundamentos a desenvolverem novos métodos para reabilitar a teoria clássica. A escola formalista progrediu bastante através das polêmicas com os intuicionistas [Cos77].

4.5.1  A figura de David Hilbert

Para David Hilbert (1862 - 1943) e outros, o problema de estabelecer fundamentos rigorosos era o grande desafio ao empreendimento de tantos, que pretendiam reduzir todas as leis científicas a equações matemáticas. Ele acreditava que tudo na matemática poderia e deveria ser provado a partir dos axiomas básicos. O resultado disso levaria a demonstrar conclusivamente, segundo ele, os dois elementos mais importantes do sistema matemático.
Em primeiro lugar a matemática deveria, pelo menos em teoria, ser capaz de responder a cada pergunta individual – este é o mesmo espírito de completude que no passado exigira a invenção de números novos, como os negativos e os imaginários. Em segundo lugar, deveria ficar livre de inconsistências – ou seja, tendo-se mostrado que uma declaração é verdadeira por um método, não deveria ser possível mostrar que ela é falsa por outro método. Hilbert estava convencido de que, tomando apenas alguns axiomas, seria possível responder a qualquer pergunta matemática imaginária, sem medo de contradição. O esforço para
A tese logiscista compõe-se de duas partes: 1)Toda idéia matemática pode ser definida por intermédio de conectivos lógicos (classe ou conjunto, implicação, etc.); 2)Todo enunciado matematicamente verdadeiro pode ser demonstrado a partir de princípios lógicos (“não contradição”, “terceiro excluído”, etc.), mediante raciocínios puramente matemáticos.
Para Brower, fundador desta escola – na verdade um radicalizador das teses de Kronecker que não aceitava a teoria dos conjuntos – o saber matemático escapa a toda e qualquer caracterização simbólica e se forma em etapas sucessivas que não podem ser conhecidas de antemão: a atividade do intelecto cria e dá forma a entes matemáticos, aproximando-se do apriorismo temporal de Kant.
Os logicistas tiveram de apelar a princípios extra-lógicos – axioma de Zermelo, axioma do infinito – que ainda hoje encontram-se sujeitos a calorosos debates e fortes reparos. Caminho praticado por Hilbert no seu famoso trabalho Fundamentos da Geometria (1899), onde axiomatizou de modo rigoroso a geometria euclidiana. Reconstruir logicamente o conhecimento matemático acabou sendo liderado por essa figura, talvez a mais eminente da época.
No dia 8 de agosto de 1900, Hilbert deu uma palestra histórica no Congresso Internacional de Matemática em Paris. Ele apresentou 23 problemas não-resolvidos da matemática que acreditava serem de imediata importância. Alguns problemas relacionavam-se com áreas mais gerais da matemática, mas a maioria deles estava ligada aos fundamentos lógicos dessa ciência. Tais problemas deveriam focalizar a atenção do mundo matemático e fornecer um programa de pesquisas. Hilbert queria unir a comunidade para ajudá-lo a realizar sua visão de um sistema matemático livre de dúvidas ou inconsistências[Sin99]. Todos esses estudos denominaram-se Metamatemática ou Metalógica, pela conectividade das duas.
Ele propôs-se a demonstrar a coerência da aritmética, para depois estender tal coerência aos âmbitos dos demais sistemas. Apostou na possibilidade da criação de uma linguagem puramente sintática, sem significado, a partir da qual se poderia falar a respeito da verdade ou falsidade dos enunciados. Tal linguagem foi e é chamada de sistema formal, e está resumida no anexo A concepção formalista da matemática. Isto, que fazia parte do centro da doutrina formalista, mais tarde estimularia Turing a fazer descobertas importantes sobre as capacidades das máquinas. Registre-se também que John von Neumann, a quem muitos atribuem a construção do primeiro computador, era um aluno de Hilbert e um dos principais teóricos da escola formalista.
No início do século XX a matemática estava reduzida a 3 grandes sistemas axiomáticos: aritmética, análise e conjunto, sendo o mais fundamental o primeiro. Era natural que ele escolhesse esse sistema. John von Neumann falava 5 línguas e foi um brilhante logicista, matemático e físico. Além de lhe ser atribuída a invenção do primeiro computador, ele estava no centro do grupo que criou o conceito de “programa armazenado”, que potencializou extremamente o poder computacional das máquinas que então surgiam.
Interessam agora dois problemas da referida lista de 23. O segundo, relacionado com a confiabilidade do raciocínio matemático (isto é, se ao seguir as regras de determinado raciocínio matemático não se chegaria a contradições), e, ligado a ele,o problema de número dez. Este era de enunciado bastante simples: descreva um algoritmo que determine se uma dada equação diofantina do tipo P(u1,u2,...,un) = 0, onde P é um polinômio com coeficientes inteiros, tem solução dentro do conjuntodos inteiros. É o famoso problema da decidibilidade, o Entscheidungsproblem. Consistia em indagar se existe um procedimento mecânico efetivo para determinar se todos os enunciados matemáticosverdadeiros poderiam ser ou não provados, isto é, se eles poderiam ser deduzidos a partir de um dado conjunto de premissas. Para entender um pouco mais sobre decisão na matemática, ver o anexo O problema da decisão na Matemática.
Também a questão da consistência, como jáfoi dito, era decisiva para ele, pois é uma condição necessária para o sistema axiomático do tipo que ele tinha em mente. Aristóteles já tinha mostrado que se um sistema é inconsistente, qualquer afirmação poderia ser provada como falsa ou verdadeira. Neste caso não seria possível haver um fundamento sólido. A simplicidade do problema de Hilbert é apenas aparente, e somente após 70 anos de esforços foi encontrada a solução, por Matijasevic, um matemático russo de apenas 22 anos na época. É uma solução bastante complexa, dependendo tanto de resultados da Teoria do Números, conhecidos há muitíssimos anos, como do trabalho anterior de três americanos, Martin Davis, Julia Robinson e Hilary Putnan, que por sua vez baseia-se em certos resultados fundamentais sobre lógica e algoritmos descobertos na década de 30 por Kurt Gödel, Alan Turing, Emil Post, Alonso Church e Stephen Kleene. A resposta a esse problema de Hilbert é: tal algoritmo não existe: o décimo problema é indecidível. para qualquer tipo de conhecimento, matemático ou não. Anos mais tarde, em 1928, no Congresso Internacional de Matemáticos, realizado em Bolonha, Itália, Hilbert lançou um novo desafio, que na verdade somente enfatizava aspectos do segundo e do décimo problema já descritos. Hilbert queria saber se é possível provar toda assertiva matemática verdadeira.
Estava buscando algo como uma “máquina de gerar enunciados matemáticos verdadeiros”: uma vez alimentada com um enunciado matemático, poderia dizer se o enunciado é falso ou verdadeiro [Cas97]. É um problema que está relacionado com o citado projeto hilbertiano da busca de um sistema formal completoe consistente.
Ao mesmo tempo, em 1927, com 22 anos, von Neumann publicou 5 artigos que atingiram fortemente o mundo acadêmico. Três deles consistiam em críticas à física quântica, um outro estabelecia um novo campo de pesquisas chamado Teoria dos Jogos, e, finalmente, o que mais impactou o desenvolvimento da Computação: era o estudo do relacionamento entre sistemas formais lógicos e os limites damatemática. Von Neumann demonstrou a necessidade de se provar a consistência da matemática, um passo importante e crítico tendo em vista o estabelecimento das bases teóricas da Computação (embora ninguém tivesse esse horizonte por enquanto).
Já foi citado, no capítulo sobre o Desenvolvimento da Lógica Matemática,o desafio dos matemáticos do início do século de aritmetizar a análise. Eles estavam de acordo, no que diz respeito às proposições geométricas e outrostipos de afirmações matemáticas, em que poderiam ser reformuladas e reduzidas a afirmações sobre números. Logo, o problema da consistência da matemática estava reduzido à determinação da consistência da aritmética. Hilbert estava interessado em dar uma teoria da aritmética, isto é, um sistema formal que fosse finitisticamente descritível, consistente, completo e suficientemente poderoso para descrever todas as afirmações que possam ser feitas sobre números naturais. O que Hilbert queria em 1928 era que, para uma determinada afirmação matemática, por exemplo, “a soma de dois números ímpares é sempre um número par”, houvesse um procedimento que, após um número finito de passos, parasse e indicasse seaquela afirmação poderia ou não ser provada em determinado sistema formal, suficientemente poderoso para abranger a aritmética ordinária [Cas97]. Isto está diretamente relacionado com o trabalho de Gödel e Alan Turing.
Pode-se afirmar que, em geral, a lógicamatemática prestou naqueles tempos maior atenção à linguagem científica, já que seu projeto era o da elaboração de uma linguagem lógica de grande precisão, que fosse boa para tornar transparentes as estruturas lógicas de teorias científicas. Tal projeto encontrou seus limites, tanto na ordem sintática como na ordem semântica (por exemplo, com os célebres teoremas de limitação formal). Este fenômeno levou a uma maior valorização da linguagem ordinária, que, apesar de suas flutuações e imprecisões, encerram uma riqueza lógica que os cálculos formais não conseguem recolher de todo. Dentro da própria matemática – como se verá mais adiante com Gödel – há verdades que não podem ser demonstradas mediante uma dedução formal, mas que podem ser demonstradas – o teorema da incompletude de Gödel é uma prova disso – mediante um raciocínio metamatemático informal. A partir desse propósito de construção de uma
O termo finitístico é usado por vários autores. Hilbert quis dizer que tal sistema deveria ser construído com um número finito de axiomas e regras e toda prova dentro do sistema deveria ter um número finito de passos. Na verdade, tanto a lógica matemática emsentido estrito como os estudos de semântica e filosofia da linguagem depararam-se com problemas filosóficos que não se resolvem somente dentro de uma perspectivalógica. Há questões de fundo da lógica matemática que pertencem já a uma filosofia da matemática.
Todos esses desafios abriram uma porta lateral para a Computação e deram origem a um novo e decisivo capítulo na sua História. Da tentativa de resolvê-los ocorreu uma profunda revolução conceitual na Matemática – o Teorema de Gödel – e surgiu o fundamento básico de todo o estudo e desenvolvimento da Computação posterior: a Máquina de Turing.

4.6  Kurt Gödel: muito além da lógica

Kurt Gödel (1906 – 1978) não desfruta do mesmo prestígio de outros cientistas contemporâneos seus, como Albert Einstein. Possivelmente contribua para isto o fato de que suas descobertas se produziram em um campo, o da lógica matemática, próprio das ciências formais, e não em algum ramo da ciência que tenha influenciado diretamente no conjunto da sociedade.
No entanto, suas grandes contribuições à lógicaformal se estendem – segundo seus biógrafos – muito além do seu estrito âmbito formal e abordam questões tão vastas e espinhosas como a natureza da verdade, o conhecimento e a certeza. Pode-se afirmar que, junto com a teoria da relatividade de Einstein e o princípio da incerteza de Heisenberg, o teorema da incompletude de Gödel despertou a ciência moderna de seu “sonho dogmático”.

4.6.1  Um pouco de história

Nascido em Brünn (hoje Brno, na República Tcheca), Kurt Friedrich Gödel (ao naturalizar-se norte-americano, em 1948, ele deixou o segundo nome) instala-se em Viena em 1924. Logo se apaixona pela cidade, por sua vida universitária e atmosfera intelectual. Requisita a nacionalidade austríaca e, em 26 de fevereiro de 1929, três dias depois da morte de seu pai, deixa oficialmente de ser tcheco. Apesar doluto, termina sua tese de doutorado, Sobre a completude do cálculo lógico. Nessa monografia datilografada de apenas 30 páginas, o jovem matemático, então com 23 anos, expõe diversosresultados extremamente importantes para a lógica. Deduz que todo sistema de axiomas deprimeira ordem não-contraditório possui um modelo. Isto é, que existe um conjunto de objetos que verificam os axiomas do sistema.
Existem duas definições de completude:

1) Um sistema de axiomas é completo (como uma caixa de ferramentas bem provida, que permite realizar todos os trabalhos necessários) quando todos os teoremas verdadeiros da teoria em pauta (por exemplo, a aritmética) podem ser deduzidos a partir dele. Esta é a completude semântica. Parte do texto que se segue, a partir do item Um pouco de história vem de maravilhoso artigo publicado na revista Scientific American Brasil, edição Gênios da Ciência Matemática: A vanguarda matemática e os limites da razão

2) Um sistema de axiomas é completo (comouma caixa de ferramentas à qual não se pode acrescentar nada) quando toda tentativa de lhe adicionar um novo axioma (independente dos anteriores) resulta em contradição. Esta é a completude sintática. Gödel usa o termo completude no primeiro sentido e mostra que toda fórmula lógica verdadeira do cálculo de predicados de primeira ordem é demonstrável a partir dos axiomas clássicos desse mesmo cálculo. Para ele, esse resultado — constitui um complemento teórico ao método usual de demonstração de não-contradição”. O “método usual” consiste em construir um modelo, ou seja, oferecer uma interpretação semântica (por exemplo, geométrica) do sistema considerado: se a teoria admite um modelo, então é não-contraditória. Em sua tese, o jovem demonstra a recíproca de tal propriedade: todo sistema de axiomas de primeira ordem não contraditório admite um modelo. Esse resultado parece confirmar a esperança formalista de David Hilbert, de construir uma teoria rigorosa capaz de descrever toda a matemática. Mas Gödel opta pela prudência. Entusiasmado, seu orientador, Hans Hahn, encoraja-o a publicar uma versão presumida do trabalho. O artigo Sobre a completude dos axiomas do cálculo lógico de funções aparece, em 1930, no periódico Monatshefte für Mathematik und Physik. Detalhe interessante: no artigo, Gödel não retoma nenhum elemento da introdução de sua tese, na qual havia relacionado seu resultado às discussões acerca dos fundamentos da matemática.

Eis aqui, nas palavras do próprio Gódel, um resumo do artigo: “Na fundamentação axiomática da lógica, tal como é estabelecida, por exemplo, nos Principia mathematica, levanta-se a seguinte questão: os axiomas utilizados são de fato completos, ou seja, suficientes para deles se deduzir todas as proposições importantes da lógica pela via formal?
Este problema não foi resolvido até agora senão para as proposições lógicas mais simples, especificamente para aquelas do cálculo proposicional. A resposta é positiva, e significa que toda proposição verdadeira (válida em geral) decorre dos axiomas dos Principia mathematica. O autor mostra como estender esse teorema às fórmulas do cálculo funcional (cálculo de predicados) de primeira ordem (em que os quantificadores não operam sobre as funções e predicados)”.
Em sua tese, Gödel ainda toma o partido de Hilbert, contra o chamado “intuicionismo” de Luitzen Brouwer (1881-1966). Mas certas idéias do matemático holandês certamente o influenciam. Não sabemos se ele assistiu às duas conferências que Brouwer proferiu em Viena em março de 1928; porém não há dúvida de que conhecia seu conteúdo, ao menos por meio das atas às quais teve acesso.
Em outras palavras, busca-se uma interpretação semântica para o sistema de axiomas. Ex.: certo sistema de axiomas diz respeito a dois conjuntos M e N cuja natureza, inicialmente, não é especificada. Esses axiomas são: 1) M e N têm o mesmo número de elementos; 2) Nenhum elemento de N contém mais de 2 elementos de M; 3) Nenhum elemento de M está contido em mais de dois elementos de N. Esse sistema é coerente, pois se pode associar a ele o seguinte modelo geométrico, onde se verifica os três axiomas (M é o conjunto de vértices do quadrado e N o conjunto de seus lados):

M M
N
N N
N
M M

Como conseqüência, parece-lhe impossível remediar essa situação “ao submeter, como faz a escola formalista, a linguagem matemática a um tratamento matemático” e “pela tentativa de exprimi-Ia em uma linguagem de segunda ordem ou em uma metalinguagem”. O desacordo entre Gödel e Brouwer acerca do assunto é apenas uma questão de interpretação: enquanto Brouwer vê como confissão de fraqueza a impossibilidade de a linguagem atingir precisão absoluta, Gödel, ao contrário, interpreta essa mesma dificuldade como um indício de que a matemática é inesgotável, e que é normal que ela não se deixe circunscrever facilmente.
Os apontamentos feitos em 23 de dezembro de 1929 pelo filósofo Rudolf Carnap, depois de três horas de conversa com Gödel acerca da matemática e do formalismo, confirmam essa visão: “Toda formalização damatemática envolve problemas que se podem exprimir e explicitar na linguagem corrente, mas para os quais não existe expressão apropriada dentro do próprio formalismo. Segue daí (Brouwer foi citado nesse ponto) que a matemática é inesgotável: deve-se sempre retomar a seus inícios, para `buscar nova força nas fontes da intuição'. Não haveria, assim, nenhuma língua characteristíca uníversalis, nenhuma língua formal para a totalidade da matemática. (...) Nós dispomos apenas de uma linguagem, mas as sutilezas construídas por nosso espírito são inesgotáveis, porque se baseiam sempre em alguma nova intuição”.
O caráter inesgotável da matemática fornecerá a Gödel uma espécie de fio condutor para suas pesquisas ulteriores, especialmente para o teórema da incompletude. Outro resultado que aparece na tese de Gödel, mas que adquire plena clareza somente no artigo do Monatshefte, é o teorema da compacticidade: para que um sistema com uma infinidade enumerável de fórmulas seja coerente é necessário e suficiente que cada parte finita do sistema o seja. Esse teorema recebeu pouca atenção quando de sua publicação, sem dúvïda devido aos preconceitos da época em torno da noção de infinito. No entanto, ele iria se tomar, a partir dos anos 40, uma das principais ferramentas conceituais para o desenvolvimento da teoria de modelos.
Gödel evita explicitar em sua tese a noção deverdade. Mais tarde, ele diria que “em razão dos preconceitos filosóficos da época, umconceito de verdade matemática diferente do de demonstrabilidade parecia altamente suspeito e costumava ser rejeitado como desprovido de significado”. Seu teorema da completude representa sem dúvida um resultado notável. Ainda assim, para obter o posto de privatdozent que deseja, bem como o acesso à carreira universitária, ele precisa demonstrar alguma “coisa maior”. Compreende-se, desse modo, que, apesar de toda a prudência que já havia manifestado em sua tese, o gênio Gödel se dirija precisamente à pedra angular do programa de Hilbert: a demonstração da coerência (não-contradição) da análise matemática. Esse problema é o segundo de uma lista de 23 que Hilbert expôs, em 1900, no Congresso Internacional de Matemática. Tal lista era considerada, à época, como um mapa para toda a matemática do século XX. Aquele que conseguisse resolver essa questão entraria para o panteão da matemática e teria uma fulgurante carreira universitária.
A idéia de Gödel não era atacar diretamente o problema da não-contradição da análise; mas demonstrar que a análise seria coerente se e somente se a aritmética (teoria dos números) o fosse. Uma vez obtida essa coerência relativa, bastava demonstrar a coerência da teoria dos números, campo em que a utilização de métodos finitos parecia mais promissora. Mesmo assim, o projeto era ousado, pois o método de demonstração da coerência relativa nunca havia sido utilizado fora da geometria (ele havia sido desenvolvido para demonstrar a coerência relativa da geometria não-euclidianaem relação à geometria euclidiana). Gödel penetra, assim, em território desconhecido.
O objetivo de Gödel não é, absolutamente,provocar a queda de todo o programa de Hílbert. Ao contrário, ele se via como um dos matemáticos da nova geração aos quais o grande Hilbert lançara seu apelo apenas dois anos antes, por ocasião do Congresso de Bolonha. Aceita, portanto, a tradição de axiomatização daaritmética para elaborar sua demonstração. Uma axiomatização da teoria dos números havia sido oferecida pelo matemático alemão Richard Dedekind desde 1888 (ver anexo O método axiomático e as ciências dedutivas). No entanto, para construir seu sistema de axiomas, Dedekind havia utilizado de maneira informal a teoria dos conjuntos. Mais especificamente, ele colocara no mesmo nível objetos, expressões referidas a objetos e expressões referidas a outras expressões: sua aritmética era de segunda ordem.
Deve-se ao matemático italiano Guiseppe Peano a etapa seguinte, decisiva para a axiomatização da matemática. Em sua obra Arithmetices principia nova methodo exposita, publicada um ano depois dos trabalhos de Dedekind, Peano apresentou um sistema de axiomas para os números naturais que lembrava de maneira espantosa o sistema deDedekind, apesar de concebido de modo independente. O matemático italiano, contudo, não construíra sua teoria dentro do contexto conjuntista, e introduziu uma notação (que, com uma ou outra modificação, tornou-se padrão) destinada a contornar certas ambigüidades inerentes à linguagem natural (ver anexoA Aritmética de Peano). Seu objetivo era captar, com o maior rigor possível, a natureza lógica do princípio de indução, ou seja, a lógica de segunda ordem.
Em linguagem matemática, o princípio de indução é condensado na fórmula: α(α(0) x (α(x) → α(s(x))) → α(x) que se lê da seguinte maneira: “para toda propriedade α, se αé válida para zero e se a proposição se αé válida para um número x, é válida também para seu sucessor´ é verdadeira, então a propriedade αé válida para todo número natural”.
Essa frase matemática não é uma fórmula da lógica de predicados de primeira ordem, mas de segunda ordem: com efeito, o primeiro quantificador (o primeiro “todo”) não está aplicado a uma variável que representa indivíduos(números naturais), mas a uma variável que representa propriedades desses indivíduos (propriedades dos números naturais). Em seu sistema axiomático, Peano segue exatamente essa formulação do princípio, e especifica que se trata de um axioma de segunda ordem.

4.6.2  Verdade e demonstrabilidade

A distinção entre axiomas de primeira e segunda ordem foi estabelecida pelo lógico polonês Alfred Tarski (1902-1983) para distinguir a linguagem-objeto de um estudo, ou seja, a linguagem utilizada para falar de um domínio qualquer de objetos, da correspondente metalinguagem, ou seja, a linguagem utilizada para falar da linguagem-objeto. Da mesma maneira, existe uma metametalinguagem, que permite falar da metalinguagem, e assim por diante. Todos esses níveis de linguagem superpõem-se como camadas sucessivas e, para certos estudos lógicos, torna-se essencial separar cuidadosamente cada camada. A façanha de Gödel residirá na invenção de um meio para superar a barreira entre os diferentes níveis de linguagem.
Gödel desejava demonstrar a não-contradição relativa da análise matemática em relação à aritmética de Peano. Essa propostajá o conduz ao âmago do problema verdade-demonstrabilidade: uma proposição verdadeira é sempre demonstrável? No rascunho de uma carta do final dos anos 60, ele descreverá da seguinte maneira seu projeto à época: “Minha tentativa de demonstração, pela teoria dos modelos, da coerência relativa da análise e da aritmética forneceu tambéma ocasião para comparar verdade e demonstrabilidade, pois essa demonstração conduz quase obrigatoriamente a tal comparação. Um modelo aritmético para a análise não é nada mais, com efeito, do que uma relação εque satisfaz ao seguinte axioma de compreensão:  N x ( x N  ϕ (x) ). [Existe um conjunto N tal que, para todo número x,se x é um elemento de N, então a propriedade ϕ (x)é verdadeira, e vice-versa.] Quando se substitui ϕ (x)' por  ϕ (x) é demonstrável', tal relação εtoma-se fácil de definir. Dessa forma, se os termos verdade e demonstrabilidade fossem equivalentes, teríamos alcançado nosso objetivo. Segue da correta solução para os paradoxos semânticos, porém, que a verdade das proposições de uma linguagem não poderá jamais expressar-se dentro dessa mesma linguagem, contrariamente à demonstrabilidade (que é uma relação aritmética). Como conseqüência, verdadeiro ≠ demonstrável”.
Nos anos 30, o problema colocado pela formulação, em uma linguagem dada, de uma definição da noção de verdade para essa mesma linguagem é, certamente, uma das questões mais discutidas nas reuniões do Círculo de Viena: é possível definir precisamente o significado da expressão “é uma proposição verdadeira na linguagem L”? Em fevereiro de 1930, Menger convida Tarski para uma série de conferências, no curso das quais o matemático polonês sublinha que diversos conceitos utilizados em lógica vêm expressos, não na linguagem-objeto, mas na metalinguagem, e queé importante, portanto, distinguir entre esses dois tipos de linguagem. Nessa ocasião, Gödel solicita a Menger uma conversa particular com Tarski.
Se aceita a argumentação de Tarski acercado conceito de verdade, Gödel mostra-se mais reticente em relação a esse mesmo tipo deargumentação aplicado à não-contradição e à demonstrabilidade. Tanto assim que abandona a idéia de construir um modelo aritmético para a análise (provavelmente devido às reservas manifestadas na época relativamente à utilização do conceito de verdade em demonstrações) e decide provar que a demonstrabilidade e a não contradição podem, ainda que indiretamente, ser expressas na linguagem-objeto da teoria, sem que isso acarrete antinomias fatais.
Para o desenvolvimento de seus estudos Gödel concebeu uma interessante formulação de símbolos, fórmulas e provas através de números, bem como mostrou que as proposições metamatemáticas – aliás, sem isso não poderia ter realizado sua prova – podem estar adequadamente refletidas dentro do próprio cálculo, aritmetizando assim a própria metamatemática. No anexo O Teorema da Incompletude de Gödelhá um pequeno resumo sobre a prova de Gödel.
Gödel acabou com o sonho logicista, visto que não se pode desenvolver toda a aritmética (e muito menos toda a matemática) num sistema que seja ao mesmo tempo consistente e completo. Também acabou com o sonho formalista: existem enunciados matemáticos que são verdadeiros, mas não são suscetíveis de prova, isto é, existe um abismo entre verdade edemonstração.

4.6.3  Outras conquistas

Gödel também, ao longo da demonstração do seu teorema, rompeu um limiar crucial entre a lógica e a matemática. Ele mostrou que qualquer sistema formal que seja tão rico quanto um sistema numérico qualquer, e que contenha os operadores “+” e “=”, pode ser expresso em termos aritméticos [Coh87]. Isto significa que por mais complexa que se torne a matemática (ou qualquer outro sistema formal redutível a ela), pode-se sempre expressá-la em termos de operações a serem executadas sobre números, e as partes do sistema poderão ser manipuladas por regras de contagem e comparação.
Outro resultado fundamental do teoremada incompletude de Gödel pode-se considerar como sendo a demonstração de que há algumas funções sobre os inteiros que não podem ser representadas por um algoritmo,ou seja, que não podem ser computadas. Posteriormente verificou-se a existência deuma equivalência entre o Teorema da Incompletude de Gödel e o problema da parada de Turing.

4.7  Alan Mathison Turing: o berço da Computação

A revolução do computador começou efetivamente a realizar-se no ano de 1935, em uma tarde de verão na Inglaterra, quando AlanMathison Turing (1912 - 1954), estudante do King’s College, Cambridge, durante curso ministrado pelo matemático Max Neumann, tomou conhecimento do  Entscheidungsproblemde Hilbert.Enquanto isso, conforme foi brevemente citado no item precedente, uma parte da comunidade dos matemáticos buscava um novo tipo de cálculo lógico, que pudesse, entre outras coisas, colocar em uma base
Os resultados de Gödel têm conseqüências importantes também para a filosofia. Sabe-se, graças a ele, ser impossível construir uma máquina que, de modo consistente, resolva todos os problemas da matemática, com os recursos de um sistema (certos problemas, por assim dizer, “não se deixam resolver” com os recursos do sistema apenas). Mas de fato o matemático os resolve muitas vezes. matemática segura o conceito heurístico do que seja proceder a um cômputo. O resultado destas pesquisas era fundamental para o desenvolvimento da matemática: tratava-se de saber se é possível haver um procedimento efetivo parase solucionar todos os problemas de uma determinada classe que estivesse bem definida. O conjunto desses esforços acabou por formar a fundamentação teórica da que veio a ser chamada “Ciência da Computação”.
Os resultados de Gödel e o problema da decisãomotivaram Turing primeiramente a tentar caracterizar exatamente quais funções são capazes de ser computadas. Em 1936, Turing consagrou-se como um dos maiores matemáticos do seu tempo, quando fez antever aos seus colegas que é possível executar operações computacionais sobre a teoria dos números por meio de uma máquina que tenha embutida as regras de um sistema formal. Turing definiu uma máquina teórica que se tornou um conceitochave dentro da Teoria da Computação. Ele enfatizou desde o início que tais mecanismos podiam ser construídos e sua descoberta acabou abrindo uma nova perspectiva para o esforço de formalizar a matemática, e, ao mesmo tempo, marcou fortemente a História da Computação.
A percepção genial de Turing foi a substituição da noção intuitiva de procedimento efetivo por uma idéia formal, matemática. O resultado foi a construção de uma conceituação matemática da noção de algoritmo, uma noção que ele modelou baseando-se nos passos que um ser humano dá quando executa um determinado cálculo ou cômputo. Ele formalizou definitivamente o conceito de algoritmo.

4.7.1  A Máquina de Turing

Um dos primeiros modelos de máquina abstrata foi a Máquina de Turing.  Conforme o próprio Turing escreveu: “Computar é normalmente escrever símbolos em um papel. Suponha que o papel é quadriculado, podendo ser ignorada a bidimensionalidade, que não é essencial. Suponha que o número de símbolos é finito. [...]. O comportamento do(a) computador(a) é determinado pelos símbolos que ele(a) observa num dado momento, e seu estado mental nesse momento. Suponha que exista um número máximo de símbolos ou quadrículas que ele(a) possa observar a cada momento. Para observar mais serão necessárias operações sucessivas. Admitamos um número finito de estados mentais [...]. Vamos imaginar que as ações feitas pelo(a) computador(a) serão divididas em operações tão elementares que são indivisíveis. Cada ação consiste na mudança do sistema computador(a) e papel. O estado do sistema é dado pelos símbolos no papel, ossímbolos observados pelo(a) computador(a) e seu estado mental. A cada operação, não maisde um símbolo é alterado, e apenas os observados são alterados. Além de mudar símbolos, as operações devem mudar o foco da observação, e é razoável que esta mudança devaser feita para símbolos localizados a uma distância fixa dos anteriores. [...] Algumas destas operações implicam mudanças de estado mental do computador(a) e portanto determinam qual será a próxima ação”.
Palavras como procedimento efetivo e algoritmo representam conceitos básicos dentro da Ciência da Computação. São noções que na época de Turing já eram utilizadas pelos matemáticos, como por exemplo Frege e Hilbert (ver capítulos que tratam dessas duas importantes figuras).
O trabalho de Turing ficou documentado no artigo On Computable Numbers with an aplication to the Entscheidungsproblem, publicado em 1936 ([Tur50], volume XII). Ele descreveu em termos matematicamente precisos como pode ser poderoso um sistema formal automático, com regras muito simples de operação. Turing definiu que os cálculos mentais consistem em operações para transformar números em uma série de estadosintermediários que progridem de um para outro de acordo com um conjunto fixo de regras, até que uma resposta seja encontrada. Algumas vezes se usa o papel e lápis, para não se perder o estadodos nossos cálculos. As regras da matemática exigem definições mais rígidas que aquelas descritas nas discussões metafísicas sobre os estados da mente humana, e ele concentrou-se nadefinição desses estados de tal maneira que fossem claros e sem ambigüidades, para que tais definições pudessem ser usadas para comandar as operações da máquina. Turing começou com uma descrição precisa de um sistema formal, na forma de “tabela de instruções” que especificaria os movimentos a serem feitos para qualquer configuração possível dos estados no sistema.
Provou então que os passos de um sistema axiomático formal semelhante à lógica e os estados da máquina que perfaz os “movimentos” em um sistema formalautomático são equivalentes entre si. Estes conceitos estão todos subjacentes na tecnologiaatual dos computadores digitais, cuja construção tornou-se possível uma década depois da publicação do matemático inglês.
Um sistema formal automático é umdispositivo físico que manipula automaticamente os símbolos de um sistema formal de acordo com as suas regras. A máquina teórica de Turing estabelece tanto um exemplo da sua teoria da computação quanto uma prova de que certos tipos de máquinas computacionais poderiam ser construídas. Efetivamente, uma Máquina de Turing Universal, exceto pela velocidade, que depende do hardware, pode emular qualquer computador atual, desde os supercomputadores até os computadores pessoais, com suas complexas estruturas e poderosas capacidades computacionais, desde que não importasse o tempo gasto. Ele provou que para qualquer sistema formal existe uma Máquina de Turing que pode ser programada para imitá-lo. Ou em outras palavras: para qualquer procedimento computacional bem definido, uma Máquina de Turing Universal é capaz de simular um processo mecânico que execute tais procedimentos.
De um ponto de vista teórico, a importânciada Máquina de Turing está no fato de que ela representa um objeto matemático formal. Através dela, pela primeira vez, se deu uma boa definição do que significa computar algo. E isso levanta a questão sobre o que exatamente pode ser computado com tal dispositivo matemático, assunto fora do escopo do presente trabalho e que entra no campo da complexidade computacional.

4.7.2  O problema da parada e o problema da decisão

Um ano mais tarde, trabalhando independentemente, Alan Post publicou seu trabalho sobre uma máquina semelhante à de Turing. Há um anexo onde se detalha um pouco mais sobre o funcionamento de uma Máquina de Turing. Uma Máquina de Turing Universal é uma Máquina de Turing específica que lê na sua fita de alimentação, além de dados de entrada, um programa Ρque é uma especificação de uma Máquina de Turing qualquer.
Turing mostrou que o funcionamento de sua máquina (usar-se-á a sigla MT a partir de agora) e a aplicação das regras de formação de um sistema formal não têm diferença. Ele demonstrou também que seu dispositivo poderia resolver infinitos problemas mas havia alguns que não seriam possíveis, porque não haveria jeito de se prever se o dispositivo pararia ou não. Colocando-se de outra maneira: dado um programa P para uma MT e uma determinada entrada de dados E, existe algum programa que leia Pe E, e pare após um número finito de passos, gerando uma configuração final na fita que informe se o programa P encerra sua execução após um número finito de passos ao processar E?
Comparando-se com as afirmações sobre verdades aritméticas, dentro de um sistema formal consistente da aritmética, que não são passíveis de prova dentro deste sistema, percebe-se que o problema da paradade Turing nada mais é do que o Teorema de Gödel, mas expresso em termos de uma máquina computacional e programas, ao invés de uma linguagem de um sistema dedutivo da Lógica Matemática.
Em 1936 Turing provou formalmente o seguinte teorema:

Teorema da Parada: dado um programa P qualquer para uma Máquina de Turing e uma entrada Equalquer de dados para esse programa, não existe uma Máquina de Turing específica que pare após um número finito de passos, e que diga se Pem algum momento encerra sua execução ao processar E. A solução negativa desse problema computacional implica também numa solução negativa para o problema de Hilbert. Portanto nem todos os enunciados verdadeiros da aritmética podem ser provados por um computador.

4.7.3  Outras participações

4.7.3.1  Decifrando códigos de guerra

Em 1940 o governo inglês começou a interessar-se de maneira especial pelas idéias de Turing. Ele foi convocado pela Escola de Cifras e Códigos, do governo, cuja tarefa era decifrar mensagens codificadas do inimigo. Quando a guerra começou, a Escola Britânica de Códigos era dominada por lingüistas e filólogos.O Ministério do Exterior logo percebeu que os teóricos dos números tinham melhores condições de decifrar os códigos alemães. Para começar, nove dos mais brilhantes teóricos dos números da Inglaterra se reuniram na nova sede da Escola de Códigos em Bletchley Park, uma mansão vitoriana em Bletchley, Buckinghamshire. Turing teve que abandonar suas máquinas hipotéticas com fitas telegráficas infinitas e tempo de processamento interminável, para enfrentar problemas práticos, com recursos finitos e um limite de tempo muito real.
Devido ao segredo que cercava o trabalho realizado por Turing e sua equipe, em Bletchley, a imensa contribuição que prestaram ao esforço de guerra não pôde ser reconhecida publicamente por muitos anos após o conflito. Costuma-se dizer que a Primeira Guerra Mundial foi a guerra dos químicos e a Segunda Guerra Mundial, a guerra dos físicos.
De fato, a partir da informação revelada nas últimas décadas, provavelmente é verdade dizer que a Segunda Guerra Mundial também foi a guerra dos matemáticos. E no caso de uma terceira guerra mundial sua contribuição seria ainda mais crítica. Em toda sua carreira como decifrador decódigos, Turing nunca perdeu de vista seus objetivos matemáticos. As máquinas hipotéticas tinham sido substituídas por máquinas reais, mas as questões esotéricas permaneciam. Quando a guerra terminou, Turing tinha ajudado a construir um computador, o Colossus, uma máquina inteiramente eletrônica com 1.500 válvulas que eram muito mais rápidas do que os relês eletromecânicos usados nas bombas. Colossus era um computador no sentido moderno da palavra. Com sua sofisticação e velocidade extra, ele levou Turing a considerá-lo um cérebro primitivo. Ele tinha memória, podia processar informação, e os estados dentrodo computador se assemelhavam aos estados da mente. Turing tinha transformado sua máquina imaginária no primeiro computador legítimo. Depois da guerra, Turing continuou a construir máquinas cada vez mais complexas tais como o Automatic Computing Engine.
Para maiores detalhes sobre os episódios que envolveram Turing e a Máquina Enigma, e de como foi decifrado o código de guerra alemão, ver o anexo Turing e a Máquina Enigma.

4.7.3.2  O computador ACE e inteligência artificial

Enviado à América para trocar informações com o serviço de inteligência americano e conhecer os projetos relacionados a computadores, ele tomou conhecimento das emergentes tecnologias eletrônicas e chegou a participar de outro projeto secreto, o Delilah, um codificador de voz (conhecido nos filmes de espionagem como scramblers), tendo entrado em contato com von Neumann (que quis trazê-lo para junto de si em seus projetos) e com os engenheiros da Bell (incluindo Claude Shannon). De volta para a Inglaterra, entrou para o National Physical Laboratory, onde trabalhou no desenvolvimento do Automatic Computing Engine (ACE), uma das primeiras tentativas de construção de um computador digital. No fim da guerra, já se detinha o conhecimento sobre novas tecnologias eletrônicas, que poderiam ser usadas para aumentar a velocidade dos então circuitos lógicos existentes. A real possibilidade de se construir modelos de Máquinas de Turing Universais fez com que o governo inglês investisse na construção desse novo dispositivo,mas os americanos foram mais agressivos em seus investimentos e acabaram ganhando a corridana construção de computadores. Turing, vítima de intrigas políticas, ficou fora docentro e controle dos novos trabalhos. Seus relatórios técnicos sobre os projetos de hardwaree software do ACE eram ambiciosos e se a máquina originalmente imaginada por ele tivesse sido construída imediatamente, os ingleses não teriam amargado o atraso em relação aos seus colegas do outro lado do Atlântico.
Foi também durante a temporada do ACE que Turing começou a explorar as relações entre o computador e os processos mentais, publicando um artigo, Computing Machinery and Intelligence(1950), sobre a possibilidade da construção de máquinas que imitassem o funcionamento do cérebro humano.Pode uma máquina pensar, perguntava-se em seu artigo, e além de focar no assunto inteligência das máquinas, Turing adquiriu especial notoriedade ao tentar introduzir, através desse artigo, um teste para decidir se realmente pode ou não uma máquina pensar imitando o homem. Em novembro de 1991, o Museu do Computador de Boston realizou uma competição entre 8 programas que simulavam o Turing test, ganho por um programa chamado PC Therapist III. O problema do teste de Turing é de natureza behaviorista, isto é, somente observao comportamento exterior, o que lhe dá uma caráter um tanto reducionista. Sérias controvérsias ocorreram e ainda ocorrem sobre esse tema, que esta fora do escopo deste livro.

4.7.3.3  Programação de computadores

Turing também esteve interessado na programação das operações de um computador − o que então começou a chamar-se de codificação − em função das operações matemáticas aí envolvidas e começou a escreverlinguagens de programação, avançadas então para o hardware da época. Turing estava convencido de que operações de cálculo eram somente um dos tipos de sistemas formais quepoderiam ser imitados pelos computadores.
Em particular, ele percebeu como as tabelas de sua máquina teórica poderiam tornar-se elementos de uma poderosa gramática que asmáquinas utilizariam para modificar suas próprias operações Turing inovou ao começar a elaborar tabelas de instruções, que automaticamente converteriam a escrita decimal a que estamos acostumados em dígitos binários.
Estes poderiam ser lidos pelas máquinas que começavam a ser construídas tendo como base a álgebra booleana. Turing anteviu assim que no futuro, os programadores poderiam trabalhar com as linguagens hoje conhecidas como de alto nível. Dizia: “As tabelas de instruções deverão ser feitas por matemáticos com experiência em computadores e certa habilidade em resolver problemas de solução mais difícil. Haverá bastante trabalho deste tipo a ser feito, se todo os processos conhecidos tiverem de ser convertidos na forma de tabelas de instruções em determinado momento. Esta tarefa seguirá paralelamente à construção da máquina, para evitar demoras entre o término desta e a produção de resultados. Poderão ocorrer atrasos, devido a virtuais obstáculos desconhecidos, até o ponto em que será seja melhor deixar os obstáculos lá do que gastar tempo em projetar algo sem problemas (quantas décadas estas coisas levarão?). Este processo de elaboraçãode tabelas de instruções será fascinante”.
Ele percebeu ainda que a capacidade deum computador não estaria somente limitada às questões de hardware, mas também desoftware. Exceto talvez por Konrad Zuse e von Neumann, foi o único a falar sobre os desafios matemáticos e lógicos da arte de programar computadores e seria von Neumann quem completaria em um estilo elegante sua ideia de uma linguagem de programação mais sofisticada.

4.7.4  O triste fim

O trabalho de Turing na Computação e naMatemática foi tragicamente encerrado por seu suicídio em junho de 1954, com a idade de 42 anos. Turing era homossexual e, depois da fuga de dois espiões britânicos de igual tendência para a então União Soviética, nos inícios da década de 1950, houve uma especial pressão sobre ele para corrigir sua condição através do uso de hormônios. Turing, não agüentando a forte pressão, tomou cianeto.





Nenhum comentário:

Postar um comentário

Sintam-se à vontade para enriquecer a participação nesse blog com seus comentários. Após análise dos mesmos, fornecer-lhe-ei um feedback simples.

Postar um comentário