Blog “Ciências Exatas Contemporâneas”, de
autoria de Álaze Gabriel.
Disponível em http://cienciasexatascontemporaneas.blogspot.com.br/
Autoria:
Mestres,
Doutores e Livres Docentes nas áreas de Ciências da Informação, Ciências da
Computação e Educação da Pontifícia Universidade Católica do Rio Grande do Sul.
HISTÓRIA
DA COMPUTAÇÃO: O CAMINHO DO PENSAMENTO E
DA TECNOLOGIA
1 INTRODUÇÃO
A ciência normalmente é cumulativa, isto
é, constroem-se instrumentos mais poderosos, efetuam-se medidas mais exatas,
precisam-se melhor e ampliam-se os conceitos das teorias, e assim por diante.
Embora os paradigmas possam mudar, as pesquisas normalmente evoluem com base em
resultados do passado, que se constituem em fundamentos de um desenvolvimento
posterior. O cientista estará mais seguro em suas pesquisas e mais preparado
para novos desafios se souber como seu assunto específico evoluiu
historicamente, quais as dificuldades maiores, as soluções encontradas e os
problemas pendentes.
Nas ciências mais tradicionais
−Filosofia, Matemática, Física, Biologia, etc. − existem sempre estudos de
história junto a muitos outros dedicados a pensadores, inventores e
conquistadores de primeira, segunda ou terceira grandeza, além de inúmeras
monografias. No caso da Computação, é necessário que apareçam trabalhos para
servir de base e referência aos estudantes, novos pesquisadores e aqueles
interessados pelos aspectos teóricos que estão por detrás dessa tecnologia que
domina o cotidiano neste fim e início de milênios.
A História da Computação está marcada
por interrupções repentinas, por mudanças inesperadas e imprevistas,
tornando-se difícil a visão da evolução dos computadores mediante uma mera
enumeração linear de invenções-nomes-datas. O desejo de conhecer as vinculações
que o trabalho de determinados homens estabeleceram no tempo vem acompanhado do
impulso de compreender o peso desses atos no conjunto da História da
Computação. Buscar uma compreensão dos fatos através dos acontecimentos que o
precederam é um dos principais objetivos que estará presente neste estudo da
História da Computação.
A computação é um corpo de conhecimentos
formado por uma infra-estrutura conceitual e um edifício tecnológico onde se materializam
o hardware e o software. A primeira fundamenta a segunda e a precedeu. A teoria
da computação tem seu desenvolvimento próprio e independente, em boa parte, da
tecnologia. Essa teoria baseia-se na definição e construção de máquinas
abstratas, e no estudo do poder dessas máquinas na solução de problemas. A
ênfase deste livro estará nessa dimensão teórica, procurando mostrar como os
homens, através dos tempos, buscaram elaborar métodos efetivos para a solução
de diversos tipos de problemas.
A preocupação constante de minimizar o
esforço repetitivo e tedioso produziu o desenvolvimento de máquinas que
passaram a substituir os homens em determinadas tarefas. Entre essas está o
computador, que se expandiu e preencheu rapidamente os espaços modernos pelos
quais circulam as pessoas. A partir do aparecimento da noção de número natural,
passando pela notação aritmética e pela notação mais vinculada ao cálculo
algébrico, mostra-se como apareceram regras fixas que permitiram computar com rapidez
e precisão, poupando, como dizia Leibniz, o espírito e a imaginação. “Descartes
acreditava no emprego sistemático do cálculo algébrico como um método poderoso
e universal para resolver todos os problemas. Esta crença juntou-se à de outros
e surgem as primeiras idéias sobre máquinas universais, capazes de resolver
todos os problemas. Esta era uma crença de mentes poderosas que deixaram obras
respeitáveis na Matemática e nas ciências em geral” [CO98].
Também é intenção do presente estudo
procurar compreender e estabelecer as diretrizes para uma disciplina de
História da Computação, mediante a seleção das idéias, teorias e conceitos que
ajudaram os homens em sua busca da automatização dos processos aritméticos e
que conduziram à tecnologia dos computadores.
No Brasil ainda não existem livros que
tratem do assunto História da Computação, observando-se uma lacuna cultural que
países do primeiro mundo preocupam-se em preencher já faz alguns anos.
Pretende-se que este trabalho seja uma contribuição nesse sentido e um ponto de
partida para novos estudos de História, pois são muitos os campos que poderão
ser abertos.
1.1
Ordenação dos assuntos
O desenvolvimento deste livro estará
apoiado na seguinte seqüência de capítulos:
• Uma reflexão sobre a História
• Motivações para se estudar a História
da Computação
• Evolução dos conceitos
• Pré-História tecnológica
• As primeiras máquinas
• A revolução do hardware e do software
• A disseminação da cultura informática
e o controle das informações
• Conclusão
Primeiramente será tratado o tema da
História: constatar sua existência e necessidade, aspectos da evolução da
ciência histórica e tocar particularmente o tema da História da Ciência, que se
relaciona com o presente trabalho. Logo a seguir virá uma breve explanação de
motivos que incentivam a aprofundar no estudo do tema específico da História da
Computação.
Em Evolução dos conceitos será mostrado
o desenvolvimento dos conceitos teóricos que formaram a base para o surgimento
da Computação. O caminho a ser usado será o da História da Matemática, desde os
seus primórdios por volta do ano 4.200 a.C. – época provável de um calendário
solar egípcio [Boy74]–, passando pelas contribuições das culturas babilônica,
hindu, chinesa, árabe e grega, pelo ábaco, pela primeira máquina de calcular,
até Boole, Hilbert, Turing e von Neumann, entre outros, nos anos 30, 40 e 50 do
século XX. A partir daí, a Computação constrói a sua própria história, embora
os laços com a matemática continuem sempre muito estreitos.
Por Pré-História tecnológica entende-se
a enumeração de alguns dispositivos analógicos primitivos, as primeiras
tentativas de se construir um dispositivo de cálculo com Leibniz, Pascal,
Babbage, Hollerith, etc., o surgimento dos dispositivos analógicos modernos –
planímetros, analisadores harmônicos, etc. – e os primeiros 'computadores'
eletromecânicos por volta dos anos de 1930 e 1940.
Em As primeiras máquinas ver-se-á a
construção dos primeiros dispositivos computacionais e os primeiros passos que
são dados nesse campo essencial da Computação
Nestes últimos dez anos vários livros já
foram publicados em outros idiomas. que são as Linguagens de Programação. Já
estava formada a infra-estrutura conceitual necessária e a tecnologia já
possibilitava o desenvolvimento de dispositivos mais poderosos e precisos para
a execução de cálculos.
Sob o título de A revolução do hardware
e do software abordar-se-á o desenvolvimento posterior da Computação, os
avanços da Inteligência Artificial, das Linguagens de Programação e Arquitetura
de Computadores. Segue-se também uma análise da Computação como uma Ciência, da
Teoria da Computação, das bases matemáticas para Análise de Algoritmos, e do
surgimento do tema da Complexidade Computacional.
No capítulo A disseminação da cultura
informática e a proliferação das informações dois assuntos serão colocados. O
primeiro tratará do impacto social do desenvolvimento da Computação e da
necessidade de uma análise mais cuidadosa dos dados que os computadores
tornaram disponíveis ao homem. O segundo fará algumas considerações sobre
alguns limites do uso dos computadores.
2 UMA REFLEXÃO SOBRE A HISTÓRIA
Uma curiosidade de explicar e
compreender o mundo é o estímulo que leva os homens a estudarem o seu passado.
Na língua latina a palavra história expressa dois conceitos distintos:
plenitude de suceder e o conhecimento que se possui desse suceder. Sua origem
procede de certa raiz grega que significa inquirir, com inclinação à
curiosidade [Fer85].
Plenitude de suceder, conhecimento desse
suceder, recuperação dos valores antigos..., palavras que significam algo mais que
uma mera enumeração de nomes, lugares, datas, números, etc. Consiste antes de
tudo em um debruçar-se sobre o passado e formular-lhe perguntas para se
apropriar do seu legado (da “tradição”, de traducer e, entregar).
Ninguém produz por si mesmo os
conhecimentos de que necessita para sobreviver em meio à sociedade na qual
nasce; a grande maioria chega como algo adquirido, que se recebe pela interação
com o meio ambiente. Desde o instante em que o homem se dá conta do mundo e de
si mesmo, percebe-se rodeado de instituições e tradições que vive e atualiza de
um modo natural, sem se dar conta de que foi forjado nesse entorno, com
atitudes e pontos de vista tão arraigados em seu modo de ser, em sua
psicologia, que nada lhe parece estranho ou desconhecido. Somente quando o
homem sai do seu entorno vital e entra em contato com novas superfícies de
valores, tradições, costumes, é que começa a compará-los com os seus e a se
perguntar reflexivamente sobre tais coisas, pelas verdades de umas e outras.
A história é parte dessa necessidade
humana de refletir: é o desejo de explicar a origem e a verdade das próprias
instituições, quem ou qual acontecimento as estabeleceu. Para responder sobre
sua existência atual e conhecer a si mesmo o homem tem de mergulhar no seu
passado, perguntando às gerações anteriores por que fizeram essas instituições
e não outras, por que surgiram esses precisos costumes e atitudes, por que ele
tem essa herança cultural, e assim por diante. Por possuir uma herança é que
cada homem é um historiador em potencial. Assim como em cada homem há uma
evolução biológica necessária, há também a manutenção de uma identidade ao
longo das várias etapas desse desenvolvimento biológico, que nos distinguem e
nos tornam únicos, sendo fator de compreensão do modo pessoal de ser. Com a
história buscamos essa nossa identidade para compreender o momento presente.
E isto pode e deve ocorrer sob pontos de
vista específicos: sociais, psicológicos, filosóficos e tecnológicos. Paul M.
Veyne fala ainda da história como compreensão, contrapondo o uso deste termo ao
uso do termo explicação. Em seu sentido mais forte explicar significa “atribuir
um fato a seu princípio ou uma teoria a outra mais geral” como fazem as
ciências ou a filosofia. Nesse caso, a história seria uma difícil conquista
porque a ciência só conhece leis, sistemas hipotético-dedutivos, e no mundo da
história reinam, lado a lado, a liberdade e o acaso, causas e fins, etc.
Para Veyne a história apresenta um
caráter acientífico no sentido de que é difícil buscar princípios universais
que tornem os acontecimentos inteligíveis, ou achar mecanismos de causa e
efeito para se poder deduzir, prever. “(...) a Revolução Francesa se explica
pela subida de uma burguesia capitalista: isto significa, simplesmente, (...)
que a narração da revolução mostra como essa classe ou seus representantes
tomaram as rédeas do estado: a explicação da revolução é o resumo desta e nada
mais. Quando solicitamos uma explicação para a Revolução Francesa, não
desejamos uma teoria da revolução em geral, da qual se deduziria a de 1789, nem
um esclarecimento do conceito de revolução, mas uma análise dos antecedentes
responsáveis pela explosão desse conflito (...)”. Busca-se portanto uma
compreensão dos fatos através dos acontecimentos que o precederam.
Toda verdadeira investigação edifica-se
estabelecendo-se com a máxima exatidão possível o já sabido, para depois poder
perguntar com exatidão, de maneira que se possam encontrar respostas. Só
partindo da informação adquirida podem ser feitas perguntas capazes de ter
resposta, e não perguntas deslocadas, no vazio, que nunca poderão ser respondidas.
É necessário caminhar passo a passo, um após o outro: em toda busca que se
queira chegar a algo é preciso estabelecer com precisão o problema, planejar
possíveis linhas de ataque conceitual e valorar as aparentes soluções.
Tal enfoque será um dos que estarão
presentes neste estudo crítico da História da Computação através de uma visão
conceitual. Pode-se aplicar a essa história a mesma afirmação que faz Thomas
Khun sobre a História da Ciência: está marcada por interrupções repentinas, por
inesperadas e imprevistas mudanças, exigindo modelos de conhecimento que supoêm
alterações inesperadas no processo do seu desenvolvimento ([RA91], vol III). Em
função desse fato torna-se difícil a visão da evolução dos computadores
mediante uma mera enumeração linear de invenções-nomes-datas, forçando-nos a
tentar compreender as forças e tendências que, no passado, prepararam o
presente.O desejo de conhecer as vinculações que os atos de determinados homens
estabeleceram no tempo vai acompanhado do impulso de compreender o significado
de tais atos no conjunto da História da Computação.
2.1
A História e suas interpretações
Desde o seu nascimento nas civilizações
ocidentais, tradicionalmente situado na antigüidade grega (Heródoto, século V
a.C. é considerado por alguns como o “pai da história”), a ciência histórica se
define em relação a uma realidade que não é construída nem observada, como na
matemática ou nas ciências da natureza, mas sobre a qual se “indaga”, se
“testemunha”. Este aspecto da história-relato, da história-testemunho, jamais
deixou de estar presente no desenvolvimento da ciência histórica.
Se a história é ou não ciência é uma
questão muito disputada entre vários autores e tema ainda polêmico. No tratado
História e Memória do medievalista francês Jacques Le Goff [Gof94], capítulo
História, item 1, desenvolve-se uma panorâmica geral dessas correntes e
tendências existentes entre historiadores e teóricos da história.
Obviamente não se quer tirar aqui a
importância da datação. Como diz Le Goff, “o historiador deve respeitar o tempo
que, de diversas formas, é condição da história e que deve fazer corresponder
os seus quadros de explicação cronológica à duração do vivido. Datar é, e
sempre será, uma das tarefas fundamentais do historiador, mas deve-se fazer acompanhar
de outra manipulação necessária da duração −a periodização −para que a datação
se torne historicamente pensável”.
Não se dispensará este trabalho de ter
uma cronologia, a partir da qual se possa situar no tempo os homens e os fatos
mais representativos de uma determinada corrente de idéias ou descobertas. No
anexo Ihá uma tabela da evolução conceitual e tecnológica por data.
A partir do momento em que se começaram
a reunir documentos escritos, a historiografia começa a ultrapassar os limites
dopróprio século abrangido pelos historiadores, superando também as limitações
impostas pela transmissão oral do passado. Com a construção de bibliotecas e a
criação de arquivos iniciou-se o desenvolvimento de métodos de crítica.
Sobretudo depois do final do século XVII, estabeleceram-se os fundamentos para
uma metodologia aplicada à história, sob uma radical exigência de submeter
todas as investigações à razão crítica. A segunda metade do século XIX impôs o
paradigma de uma história que a partir daí chamar-se-á paradigma “tradicional”
ou paradigma “rankeano”, derivado do nome do historiador Leopold von Ranke
(1795-1886). Ranke propunha apresentar os fatos tais como o “foram na
realidade” e os historiadores europeus criaram os grandes esquemas políticos e
institucionais. Características desse paradigma, conformePeter Burke,
historiador de Cambridge:
•
a história diz respeito essencialmente à política;
•
é essencialmente uma narrativa de acontecimentos;
• “visão de cima” no sentido de estar
concentrada nos feitos dos grandes homens;
•
baseada em documentos;
•
deveria perguntar mais pelas motivaçõesindividuais do que pelos
movimentos
coletivos, tendências e acontecimentos;
•
a história é objetiva, entendendo-se por issoa consideração do suceder
como algo externo ao historiador, suscetível de ser conhecido como objeto que
se põe diante do microscópio, almejando uma neutralidade.
Ainda no século XIX algumas vozes soaram
discordantes desse paradigma histórico. Entre outras coisas devido ao seu
caráter reducionista, onde situações históricas complexas são vistas como mero
jogo de poder entre grandes homens (ou países), e também em função daquilo que
se poderia chamar a “tirania” do fato ou do documento, importantes sem dúvida,
mas que não deve levar a abdicar de outros tipos de evidências. Como relata
Peter Burke, “Michelet e Burckhardt, que escreveram suas histórias sobre o
Renascimento mais ou menos na mesma época, 1865 e 1860 respectivamente,tinham
uma visão mais ampla do que os seguidores de Ranke. Burckhardt interpretava a
história como um corpo onde interagem três forças −Estado, Religião e Cultura
−enquanto Michelet defendia o que hoje poderíamos descrever como uma ‘história
da perspectiva das classes subalternas’(...)”. Outros opositores da “história política”
foram os historiadores da evolução das sociedades sob o ponto de vista
econômico e os fundadores da nova disciplina da sociologia, que começaram a
surgir na França.
Dois fatos, no entanto, ocorridos nas
quatro primeiras décadas do século XX acabariam por sacudir e arruinar a
confiança nos princípios rankeanos, O primeiro foi a rápida difusão do
marxismo, que renuncia à neutralidade, afirmando que o materialismo dialético é
a única filosofia científica válida para a interpretação da história; o segundo,
a grande crise do ano de 1929, que revelou até que ponto os fatores econômicos
e sociais podem exercer uma ação decisiva.
É desse período o nascimento da revista
francesa Annales, considerada uma das mais importantes propulsoras da chamada
Nova História. Nova História é um termo que data de 1912, quando o estudioso
americano James Harvey Robinson publicou um livro com esse título. Segundo
Robinson, história inclui todo traço e vestígio de tudoo que o homem fez ou
pensou desde seu primeiro aparecimento sobre a terra. Em relação ao método, a
‘nova história’ vai servir-se de todas aquelas descobertas que são feitas sobre
a humanidade, pelos antropólogos, economistas, psicólogos e sociólogos
[Bur92b].
Surgiu a idéia de uma história total,
com a qual quiseram os autores da Escola dos Annales advertir que, frente à
unilateralidade e reducionismo do materialismo dialético, a compreensão do
passado exige que todos os dados – políticos e institucionais, ideológicos,
econômicos, sociais, da mentalidade humana, etc. – fossem fundidos e integrados
para conseguir uma explicação correta. Uma tarefa árdua, na prática quase
impossível, mas que marca um ideal, uma direção, uma meta que é preciso
atingir.
Surgiram ainda outros enfoques como, por
exemplo, a história do ponto de vista quantitativo, durante certo tempo em moda
na Europae Estados Unidos, que procura utilizar fontes quantitativas, métodos
de contagem e até modelos matemáticos na sua pesquisa histórica, ou as
histórias que abrangem umdeterminado campo da vida humana como a história da
arte ou a história das ciências.
O panorama atual, de acordo com os
historiadores, é o de uma história fragmentada, detectando-se alguns sinais de
busca de uma síntese. Ainda se está a uma longa distância da “história total”.
Na verdade, é difícil acreditar que esse objetivo possa ser facilmente
alcançado – ou até que será alcançado –, mas alguns passos já foram e estão
sendo dados em sua direção. Paralelamente a todos esses esforços, surgiram
também os teóricos da história, que se esforçaram ao longo dos séculos para
introduzir grandes princípios que pudessem fornecer linhas gerais de
compreensão para a evolução histórica. A filosofia da história é o estudo da
realidade “latente”, ou melhor, do “pano de fundo” dos fatos históricos. Qual é
a natureza, por exemplo, das crises de crescimento e decadência de uma
civilização, quais foram as causas? Sendo a história não a simples crônica
queapresenta os fatos de um modo minucioso, mas sim sua investigação, que se
esforça por compreender os eventos, captar relações, selecionar fatos, como
fazer isso, qual é a estrutura essencial da realidade histórica?
A filosofia da história – termo temido
por muitos autores porque poderia supor apriorismos, preconceitos, idealismos –
responderá basicamente a duas questões fundamentais:
•
o que são os fatos históricos − historiologia morfológica;
•
para qual fim se dirigem − historiologia teleológica.
2.2
A História da Ciência
O nascimento e o desenvolvimento da
ciência experimental, a partir do século XVII, estiveram freqüentemente
acompanhados de polêmicas filosóficas: sobre o alcance do raciocínio
científico, seus limites, o que é a verdade na ciência, etc. Diferentes
posturas filosóficas da época moderna tentaram solucionar tais polêmicas, mas
foi no século XX que realmente se chegou a constituir uma filosofia da ciência
como disciplina autônoma. Do Círculo de Viena em 1929, passando por Karl
Popper, Thomas Khun, Imre Lakatos, Paul Feyerabend, Wolfang Stegmüller,entre
outros, protagonizou-se um intenso debate em torno do valor do conhecimento
Para este trabalho, o que interessa é
que toda essa movimentação em torno da racionalidade da ciência também teve seu
reflexo na teoria da história, pelas novas epistemologias científicas que foram
surgindo. Osdebates trouxeram para o primeiro plano a questão da função da
historiografia da ciência e alguns problemas teóricos relativos a essa
historiografia. A importância de uma história da ciência que vá além da
história episódica ou dos resultados obtidos ficou ressaltada. Em ([RA91],
volume III)resume-se quais seriam as funções da História da Ciência:
•
sendo a ciência fator de história, não se pode entender o
desenvolvimento dessa história, especialmente da época moderna e da época
contemporânea, se não conhecermos a História da Ciência e da Tecnologia;
•
além de ser fator de história, a ciência também é fator de cultura:
assim, estará vedada a compreensão do desenvolvimento da cultura mais ampla se
não se compreende a História da Ciência e seu entrelaçamento e condicionamento
recíproco com a História da Filosofia, as concepções morais, políticas e
outras;
•
o conhecimento da História da Ciência é necessário para o trabalho do
cientista, porque o pleno entendimento do conteúdo de uma teoria pode ser
obtido mediante o confronto dessa teoria com outras, e essas outras teorias
devem ser buscadas onde quer que estejam disponíveis, tanto no presente como no
passado;
•
a História da Ciência se revela como mais um ingrediente para a didática
das ciências, tanto no que se refere à motivação do aprendizado, como no que se
refere à educação no antidogmatismo, isto é, no reconhecimento do erro como uma
fonte científica de aperfeiçoamento da teoria;
•
a História da Ciência possibilita
uma maior consciência das normas metodológicas necessárias ao trabalho
de pesquisa.
Os problemas do como realizar essas
funções são complexos, bastando lembrar as diferentes escolas de história. De
qualquer maneira, é a disciplina da história que é revitalizada, despertando a
capacidade do homem de assumir o seu passado e a partir dele dar respostas
criadoras aos novos problemas que aparecem. É muito significativo que entre os
sintomas da decadência de uma cultura ou de uma ciência esteja precisamente
isto: o repúdio ao passado que as valorizava.
Para aprofundar no assunto, em há uma
síntese das discussões e evolução das polêmicas.
2.3
Enfoque histórico adotado
A história não é exclusivamente caos ou
acaso: existe no comportamento humano um certo grau de ordem e padrão observáveis
de uma regularidade parcialmente previsível.
The
Social Sciences in Historical Study (vários autores)
Uma das intenções do presente estudo é
procurar compreender e estabelecer as diretrizes para uma disciplina da
História da Ciência, a História da Computação, através da seleção das idéias,
teorias e paradigmas que ajudaram os
homens em sua busca da automatização dos processos aritméticos e queconduziram
à tecnologia dos computadores.
Interessa portanto o enfoque
teleológico, citado anteriormente (A história e suas interpretações). A
historiologia teleológica aplica-se na interpretação, de trás para frente, da
conexão concreta do curso histórico. Trata-se de compreender duas coisas: a
primeira, que na série confusa dos fatos históricos podem-se descobrir linhas,
facções, traços, em suma, uma 'fisionomia', conforme diz Ortega y Gasset;
a segunda, tentar mostrar um sentido
para a história, desde a perspectiva do seu fim. Conforme outro historiador,
Toynbee, o ponto de partida da interpretação histórica, como o de qualquer
tarefa intelectual, é o pressuposto de que a realidade tem algum significado
que nos é acessível pelo processo mental da explicação. Considera-se que a
realidade, ainda que não totalmente, tem um sentido, isto é, que há um ‘acúmulo
de ordem’nas relações entre os milhares de fenômenos observados na realidade e
dissecados pela nossainteligência. “Todo raciocínio pressupõe a existência de
conexõesna natureza, ... e seu único objetivo é determinar que elementos essas
conexões reúnem”.
Na abordagem teleológica, a história não
é o fato meramente enumerado, mas organizado, selecionado, relacionado. Como
diz Kenneth O. May, “de modo semelhante à física, nós não pensamos que o mero
registro de uma observação por um físico é Física. Isso se torna Física quando
é interpretado, organizado, relacionado com outras partes da Física.
Do mesmo modo, o conhecimento
cronológico torna-se história somente quando ele é selecionado, analisado,
acompanhado da sua compreensão dentro de um contexto mais amplo. Significa que
a história dos computadores deveria ser compreendida não do ponto de vista
'histórico', mas em relação ao computador propriamente. Deveria dar a
perspectiva, através das idéias, sobre o que o futuro desenvolvimento deveria
ser, ao que as futuras linhas de desenvolvimento devem chegar, e assim por
diante” [May80].
O conhecimento histórico, por sua
própria natureza, é inseparável do historiador, pois é este que, da
documentação coletada, destaca o singular, elevando o fato à condição de
histórico. Procurou-se, então, registrar neste livro, tecendo um fio de
história, os fatos conceituais, com a mínima periodização e datações possíveis.
Por fatos conceituais entendam-se aqui as idéias e conceitos relevantes que
fundamentaram a incansável busca pela mecanização do raciocínio. Entre estes
estarão: Álgebra, Sistema Axiomático, Lógica Matemática, Sistema Axiomático
Formal, Computabilidade, Máquina de Turing, Tese de Church, Inteligência
Artificial, e outros mais.
Se bem que em outro contexto, pois tinha
uma outra linha de pensamento historiográfico, mas que serve também para o
enfoque adotado no trabalho. É uma história que se vai tornando incrivelmente
complexa, conforme vai avançando no tempo. Os trabalhos isolados dos
precursores da Física e da Matemática, e mais recentemente da própria Ciência
da Computação,justamente por causa de seu isolamento, são relativamente fáceis
de discernir. Mas a partir de 1950, com a proliferação das pesquisas nas
universidades, nos grandes laboratórios, nas indústrias −privadas ou estatais
−, observou-se um desenvolvimento acelerado da informática. A Ciência da
Computação avançou em extensão e profundidade, tornando-se difícil até a tarefa
de enumeração dos fatos. Surge a tentação de particularizar mais ainda. Pode-se
falar por exemplo de uma história dos microcomputadores, tomando o ano de 1947
quando três cientistas do Laboratório da Bell Telefonia, W. Shockley, W.
Brattain e J. Bardeen, desenvolveram sua nova invenção sobre o que seria um
protótipo do transistor e de como, a partir daí, ano após ano, hardware e
software progrediram e criaram novos conceitos,estruturas, em ritmo
vertiginoso. E assim também no desenvolvimento das Linguagens de Programação,
dos Compiladores, da Teoria da Computação, da Computação Gráfica, da
Inteligência Artificial, da Robótica, e outras áreas. Começa a tornar-se difícil
separar o queé significativo dentro do enfoque crítico adotado.
Surge o problema da delimitação das
fronteiras, pois as várias especialidades se
misturam muitas vezes, apesar de ter um
corpo central definido. Para se atender à finalidade de uma História da
Computação de caráterconceitual, este trabalho estará limitado prioritariamente
ao campo das idéias, acenando para outros campos quando necessário se sua
repercussão atingir a linha de evolução seguida.
De qualquer modo, embora enfatizando o
aspecto do pensamento – o que se tinha em mente quando algo foi feito ou
definido, e o que este algo fundamentará mais tarde, será necessário o
estabelecimento de alguns marcos temporais. Os acontecimentos da história
produzem-se em determinados lugares e tempos. Esta pontualização possibilitará
ir unificando esse suceder histórico específico deque se está tratando, em um
processo único que mostre claramente a mudança, o desenvolvimento e o
progresso.
Não se dispensará absolutamente o uso
das datas assim comodos fatos tecnológicos que possam ser considerados
verdadeiras mudanças de paradigma. Não se deve estranhar o recurso à História
da Matemática. Aliás é preciso dizer que, no início, pelo menos nos círculos
acadêmicos, a Computação apareceu como algo dentro dos Departamentos de
Matemática, e ainda hoje,em muitas Universidades, a Ciência da Computação
aparece como um Departamento de um Instituto de Matemática. Dentre os
diversos tópicos científicos sujeitos à
investigação, a Matemática é o que melhor combina um caráter abstrato com um
uso universal em outros campos do conhecimento.
Sua relação com a Computação é muito
estreita, quase que inseparável. As primeiras máquinas construídas foram
resultado de buscas por parte dos membros dessa comunidade do conhecimento.
Pense-se na Robótica por exemplo, onde estão incluídas a Inteligência
Artificial, as Linguagens de Programação, a Computação Gráfica, etc.
No anexo I encontra-se uma tabela
cronológica dos acontecimentos conceituais e tecnológicos, que dará uma visão
mais geral da evolução da História da Computação.
3. MOTIVAÇÕES PARA SE ESTUDAR A HISTÓRIA DA
COMPUTAÇÃO
Uma vez apontada a importância e
necessidadedo estudo da história em geral e, mais especificamente, da história
da ciência e datecnologia, fica fácil perceber que o estudo da História da
Computação é um interessante relevodentro da vasta paisagem do conhecimento
científico. Basta lembrar que o impacto dessa tecnologia na nossa sociedade é
imenso e nossa dependência dela cada vez maior. Seguem abaixo outros fatores
motivadores para esse estudo.
3.1
Necessidade de discernir fundamentos
Comparada com outras áreas, a Ciência da
Computação é muito recente. Mas, nestes poucos anos (pode-se apontar a Segunda
Guerra Mundial como um marco inicial, quando efetivamente se construíram os
primeiros computadores digitais) o avanço da Computação foi exponencial,
abrindo-se em umgrande leque de tecnologias, conceitos, idéias,
transformando-se em uma figura quase irreconhecível. Atualmente falar de estado
da arte na Computação tornou-se sem sentido: sob que ótica, perspectiva, campo
ou área?
Apesar da sua recente irrupção na
história contemporânea, a partir dos anos 40 do século XX, ela já se tornou
complexa, ampla, geradora de novos enfoques, tornando-se um verdadeiro desafio
a quem queira entendê-la e traçar sua evolução.
Ao mesmo tempo, cada nova geração de
informatas depara-se com um duplo problema: a impossibilidade de ter uma visão
global sobre todo o conhecimento precedente e, mais acentuadamente ainda, a
história do desenvolvimento das várias especialidades. Não estão
individualizados os eventos, por vezes complexos, que antecederam o saber atual
e também não se possui um quadro que os reúna, para se ter uma idéia geral,
coerente e significativa. A evolução tecnológica se nos apresenta abrupta,
através de saltos descontínuos, e todo o trabalho que antecede cada etapa
aparece coberto por uma camada impenetrável de obsolescência, algo para a
paleontologia ou para os museus, como se nada pudesse ser aprendido do passado.
O resultado é um empobrecimento do
panorama atual da realidade da informática. Não se estabelecem conexões entre
os vários campos da Ciência da Computação, caindo-se facilmente no
utilitarismo. As camadas mais profundas dos conceitos não são atingidas, o
conhecimento torna-se bidimensional, curto, sem profundidade.
Junto a isso, cedendo talvez a um
imediatismo ou deixando-se levar por uma mentalidade excessivamente pragmática
de busca de resultados, há uma forte tentação de se estabelecerem ementas para
o estudo da Ciência da Computação preocupando-se mais com determinados produtos
−linguagens, bancos de dados, sistemas, aplicativos, etc. −e pouco se insiste
na fundamentação teórica.
Os matemáticos aprendem aritmética e
teoria dos números, pré-requisitos sem os quais não se evolui no seu campo do
saber; osengenheiros, cálculo diferencial, física; os físicos trabalham
arduamente na matemática, e assim por diante. Quais os fundamentos
correspondentes na Computação? Conhece-se a Álgebra Lógicade George Boole, um
matemático que buscando relacionar o processo humano de raciocínio e a Lógica
Matemática, desenvolveu uma ferramenta para os futuros projetistas de
computadores?
Sabe-se que a revolução da Computação
começou efetivamente quando um jovem de 24 anos, chamado Alan Mathison Turing,
teve a idéia de um dispositivo teórico para buscar a resposta a um desafio do
famoso matemático David Hilbert – um dos primeiros a falar sobre
computabilidade, e que em um ‘journal’ de matemática comentou aos seus colegas
que era possível computar na teoria dos números, por meio de uma máquina que
teria armazenadas as regras de um sistema formal? Que as pesquisas de Turing
estão relacionadas com o trabalho de Gödel – cujo Teorema que leva o seu nome é
considerado um dos mais famosos resultados do século XX, dentro da
matemática?Pode-se citar ainda a Tese de Turing-Church que possibilitou aos
cientistas passarem de uma idéia vaga e intuitiva de procedimento efetivopara
uma noção matemática bem definida e precisa doque seja um algoritmo. E antes de
todos esses, o esforço de dezenas de pensadores de diferentes culturas, para
encontrar melhores formas de usar símbolos, que viabilizou o desenvolvimento da
Ciência Matemática e Lógica, e que acabaram fundamentando toda a Computação.
3.2
Incentivo à educação para a qualidade do software
A investigação histórica sob o prisma
citado −das idéias e conceitos fundamentais que formaram a base do
desenvolvimento da Computação −poderá contribuir para uma questão que assume
importância decisiva e crucial: a qualidade do software.
É preciso aqui tecer um comentário
relacionado ao tema da qualidade. A expressão “crise do software”
[Nau69]apareceu no final da década de sessenta na indústria tecnológica da
informação. Referia-se aos altos custos namanutenção de sistemas
computacionais, aos custos relativos a novos projetos que falhavamou que
consumiam mais recursos que os previstos, etc., realidades presentes no dia a
dia de muitos centros de processamento de dados. Ao lado disso, havia, e ainda
há, uma disseminação anárquica da cultura informática, impregnando cada dia
mais a vida social e trazendo, como conseqüência, uma dependência cada vez
maior da sociedade em relação ao computador. Torna-se fundamental, portanto,
diminuir as incertezas presentes no processo de elaboração dos sistemas de
computação.
A resposta a esses desafios já há alguns
anos vem sendo formulada no sentido de se estabelecer uma execução disciplinada
das váriasfases do desenvolvimento de um sistema computacional. A Engenharia de
Softwaresurgiu tentando melhorar esta situação, propondo abordagens
padronizadas para esse desenvolvimento. Algumas dessas propostas vão em direção
ao uso de métodos formais nos processos de elaboração do sistema, basicamente
através da produção de uma especificação formal em função das manifestações do
problema do mundo real que estiver sendo tratado e através da transformação
dessa especificação formal em um conjunto de programas executáveis.
Há também pesquisas dentro da Computação
que caminham em direção ao desenvolvimento de métodos numéricos, em direção à
lógica algébrica. George Boole, em sua obra que deu início a uma nova arrancada
no desenvolvimento da Lógica Matemática. Um método se diz formal quando o
conjunto dos procedimentos e técnicas utilizadas são formais, isto é, têm um
sentido matemático preciso, sobre o qual se pode raciocinar logicamente,
obtendo-se completeza, consistência, precisão, corretude, concisão,
legibilidade e reutilização das definições abstratas.
Não é sem dificuldades que evoluem as
investigações sobre o papel do raciocínio formal matemático no desenvolvimento
do software. Mas é preciso ressaltar a sua importância pois através da
especificação formal e verificação obtém-se uma excelente guia para o
desenvolvimento de programas corretos e passíveis de manutenção. Talvez não se
possapedir que todo programa seja formalmente especificado e verificado, mas é
de se desejar que todo programador que
almeje profissionalismo esteja ao menos familiarizado com essas técnicas e seus
fundamentos matemáticos.
Entre os aspectos estudados
encontram-se: (i) verificação(prova de corretude): a prova de que um dado
programa produz os resultados esperados; (ii) terminação: a prova de que um
dado programa terminará eventualmente a sua execução; (iii) derivação (desenvolvimento):
construção de um programa que satisfaz a um conjunto de especificações dadas;
(iv) transformação: modificação sistemática de um programa dado para obter um
programa equivalente, como estratégia para a derivação de novos programas por
analogia a soluções conhecidas ou como método de otimização da eficiência de
programas.
O estudo da História da Computação, não
já sob o enfoque de datas e nomes −importantes também e necessários, paranão se
cair na pura especulação −, mas sob o aspecto das idéias, de seus fundamentos e
suas conseqüências, pode ser uma sólida base, um ponto de partida, para
sensibilizar e entusiasmar o aluno sobre a importância dos fundamentos teóricos,
para ajudá-lo a ver o que um determinado conceito tem como pressupostos.
3.3
Tornar claros e ligar os fatos
Entre os objetivos da ciência histórica
pode-se aceitar como axiomático o de procurar dar um significado aos
acontecimentos. É a busca de se dar sentido à história. Este trabalho, feito
dentro de uma perspectiva teleológica da história, procurará estabelecer uma
conexão causal entre eventos, para se começar a entender o sentido do passado,
dispondo-o numa espécie de sistema organizado, para torná-lo acessível à
compreensão.
Sob outro enfoque, pode-se ver a
Históriada Ciência da Computação como um “olhar para trás com o fim de
descobrir paralelismos e analogias com a tecnologia moderna, com o fim de
proporcionar uma base para o desenvolvimento de padrões através dos quais
julguemos a viabilidade e potencial para uma atividade futura ou atual”. Quer
dizer, analisar o passado e reconhecer tendências quenos permitam prever algum
dado futuro.
Dizia John Backus, criador do FORTRAN e
da Programação Funcional: “Na ciência e em todo trabalho de criação nós
falhamos repetidas vezes. Normalmente para cada idéia bem sucedida há dúzias de
outras que não funcionaram” (1994, discurso ao receber o prêmio Charles Stark
Draper).A história cataloga e registra tais falhas, que então se tornam uma
fonte especial de aprendizado, ensinando tanto quanto as atividades bem
sucedidas. Mais ainda, dão-nos o caminho, por vezes tortuoso, por onde
transcorreram as idéias, as motivações, as inovações. Ou seja, é interessante e
instrutivo o estudo da história de qualquer assunto, não somente pela ajuda que
nos dá paraa compreensão de como as idéias nasceram - e a participação do
elemento humano nisso − mas também porque nosajuda a apreciar a qualidade de
progresso que houve.
3.4
Acompanhar novas tendências
É sintomático notar que pela primeira
vez incluiu-se no curriculum para Ciência da Computação, desenvolvido pela ACM
(Association for Computing Machinery) e IEEE (Institute of Electrical and
Electronics Engineers) Computer Society Joint Task Force, em 1991, módulos
relativos à história em 4 áreas:Inteligência Artificial, Sistemas Operacionais,
Linguagens de Programação e Temas Sociais,Éticos e Profissionais. Mais
recentemente ainda, na 6ª IFIP (International Federation for Information
Processing), evento realizado dentro da Conferência Mundial dos Computadores na
Educação, transcorrida em Birmingham, Inglaterra, de 20 a 24 de julho de 1995,
estimulou-se não só “a preservação das peças de computadores, o registro de
memóriasdos pioneiros e a análise do impacto exterior das inovações nos
computadores, mas também o desenvolvimento de módulos educacionais na História
da Computação”.
Significativo também é a introdução, nos
cursos de Ciência da Computação, da disciplina História da Computação,
principalmente a partir da década de 1990, em algumas universidades. Pode-se
citar a Universidade deStanford e o Instituto Charles Babbage, da Universidade
de Minnesota dedicado a promovero estudo da História da Computação, EUA, o
arquivo Nacional para a História da Computação da Universidade de Manchester,
Inglaterra, Universidade de Waterloo (Canadá) e similar em Bordeaux, França,
Universidade de Wales Swansea, Austrália, etc.
Também aumentaram o números de museus e
instituições governamentais ou particulares que prestam esse serviço de
preservação da história da tecnologia informática, como por exemplo o museu de
Boston, os museus de instituições militares americanas e organizações do porte
do IEEE. Esta últimapromoveu em 1996 o lançamento de pelo menos quatro livros
sobre o assunto História da Computação, tendo construído um “site” na Internet,
narrando os eventos dessa história desde o século XVII. Na Internet
proliferaram os museus de imagens e cronologias sobre assuntos específicos como
Microcomputadores, Computação Paralela, Linguagens de Programação, etc.
3.5
Revalorizar o fator humano
Finalmente há o grande tributo que se
deve fazer a esses homens que, ao longo da história da ciência Matemática,
Lógica, Física, e mais recentemente da Computação, não se deixaram levar pelo
brilho atraente daquilo que chama a atenção e das demandas mais imediatas.
Motivados pela pura busca do saber formaram o arcabouço, a infra-estrutura que
possibilitou a revolução da informática. Os bits e todas as partes de um
computador (incluindo o software) são na verdade o resultado de um processo, de
uma evolução tecnológica de vários séculos, partilhada por inúmeros
personagens, cada um acrescentando sua pequena ou grande contribuição.
“Qualquer que seja, porém, o destino da
informática, ela já tem o seu lugar na História, constituindo-se num dos
fatores preponderantes que moldam o conturbado mundo no fim do século XX. Sem a
compreensão do seu papel social, não será possível entender o processo
histórico em marcha, nem a direção dofuturo. Desse modo, a pesquisa da História
da Computação tem um significado fundamental no presente”.
4 EVOLUÇÃO DOS CONCEITOS
Considerando as idéias e os conceitos
como uma das linhas que conduzirão ao grande desenvolvimento tecnológico da
Computação a partir da década de 40 do século XX, este capítulo faz referência
a alguns aspectos da evolução da Matemática, e mais especificamente de alguns
dos seus ramos, no caso a Álgebra e a Lógica Simbólica ou Matemática, de onde
nos vieram o rigor e o método axiomático, até chegar às noções de
computabilidadee procedimento, com Turing e Church.
4.1
Primórdios
4.1.1 A evolução do conceito de número e da escrita
numérica
Talvez o passo mais fundamental dado
nestes primeiros tempos tenha sido a compreensão do conceito de número, isto é,
ver o número não como um meio de se contar, mas como uma idéia abstrata. O
senso numérico foi o ponto de partida. Trata-se da sensação instintiva que o
homem tem das quantidades, atributo participado também pelos animais
irracionais (a gata mia quando um dos filhotes não está no ninho; determinados
pássaros abandonam o ninho quando um dos seus ovos foi mudado de lugar); na
vida primitiva bastava esse senso numérico. Mas com o começo da criação dos
animais domésticos era necessário saber algo mais, pois se a quantidade não
fosse melhor conhecida, muitas cabeças se perderiam. Inventou-se a contagem
através do estabelecimento de uma relação entre duas ou várias quantidades, na
qual cada elemento de uma corresponde a um elemento de outra e nenhum elemento
deixa de ter o seu correspondente (por exemplo, pedrinhas de um monte com
ovelhas de um rebanho).
No entanto essa relação biunívoca se dá
somente no âmbito mental (ovelhas e pedra estão na natureza e não se dão conta
um do outro). Não está registrado de que forma ocorreu o reconhecimento, pelos
nossos antepassados mais primitivos, de que quatro pássaros caçados eram
distintos de dois, assim como o passo nada elementar de associar o número
quatro, relativo a quatro pássaros, e o númeroquatro, associado a quatro
pedras. Essa correspondência é um pensamento que é uma espécie de linguagem.
Nessa linguagem estão envolvidas a quantidade, a correspondência biunívoca (o
número) e a sua expressão (os elementos usados para contagem: pedras, dedos,
seqüências de toques no corpo, e outras formas mais primitivas de expressar um
numeral).
A visão do número como uma qualidade de
um determinado objeto é um obstáculo ao desenvolvimento de uma verdadeira
compreensão do que seja um número. Somente quando, de acordo com um dos
exemplos dados, o número quatro foi dissociado dos pássaros ou das pedras,
tornando-se uma entidade independente de qualquer objeto – uma abstração, como
diriam os filósofos –, é que se pôde dar o primeiro passo em direção a um
sistema de notação, e daí à aritmética. ConformeBertrand Russell, “foram
necessários muitos anos para se descobrir que um par de faisões e um par de
dias eram ambos instâncias do número dois”.
E assim como se criaram símbolos
escritos para expressar idéias, também criou-se a escrita numérica. Os numerais
escritos surgem nas civilizações antigas (egípcia, babilônica e chinesa) e se
baseiam na repetição de símbolos. No caso dos egípcios, ao se completar o
décimo elemento, tomava-se um outro símbolo para representar o número.
O advento do que nós chamamos de sistema
numérico hindu-arábico, com seu rígido esquema de valores e posições,
juntamente com o zero (que era usado para representar um espaço em branco), foi
uma das grandes invenções da humanidade, e possibilitou o desenvolvimento dos
métodos matemáticos e aritméticos, que a partir disso evoluíram muito mais do
que qualquer coisa que se conhecia até então*
O uso do zero não era incomum em certos
sistemas numéricos posicionais primitivos. Os babilônios usaram um caráter
parecido com o zero para representar uma coluna vazia no meio do número por
volta do ano 200 a.C., mas isso não era muito comum no sistema deles. Se um número,
por exemplo 1024, precisasse de um zero para separar o dígito 1 do dígito 2,
eles usavam o símbolo do zero do mesmo modo que se faz hoje. No entanto, se
eles tivessem que representar um número como o 1000, parece que eram incapazes
de conceber o fato de que o símbolo zero pudesse ser usado para simplesmente
“cobrir” os espaços restantes, e eles representavam apenas o número 1, deixando
ao leitor a tarefa de descobrir se aquilo significava 1000, e não 10, 100 ou
até mesmo 1.
Olhando-se para trás na História, parece
que a invenção de um sistema numérico de posições rígidas, e ainda de um
símbolo para designar o zero, deveria ter sido um extensão óbvia de alguns dos
primeiros sistemas numéricos de posições. Essa idéia é falsa: basta pensar que
escapou à percepção de grandes autores da Antigüidade, como Arquimedes ou
Apollonius de Pergam, mesmo quando eles percebiam as limitações de seus
sistemas.
Exatamente onde e quando os homens
começaram a utilizar o atual sistema numérico posicional, e os 10 dígitos em
que eles eram baseados, continua a ser um fato obscuro. Certamente veio até a
Europa pelos árabes, e é bem certo de que eles o obtiveram do povo do
subcontinente indiano. Onde e quando os indianos obtiveram esse sistema não é
conhecido. Pode ter sido uma invenção indígena, ou ter vindo do leste da
Indochina, ou um desenvolvimento do uso babilônico do símbolo da colunavazia.
Na Índia antiga, bem como em muitas sociedades, a arte da aritmética foi
desenvolvida em um maior grau do que o necessário para o comércio, por causa da
sua importância para a religião local. Todas as três primeiras religiões
indianas (Janaísmo, Budismo e Hinduísmo) consideravam a aritmética importante,
como mostra o fato de ser exigida entre os estudos fundamentais a serem feitos
pelos candidatos ao sacerdócio.
O uso mais antigo que se tem notícia da
matemática indiana está em trabalhos escritos em forma de verso, onde
complicadosexpedientes literários eram utilizados para representar números, de
modo a se preservar a rima e a métrica dos poemas. Até mesmo documentos que
usam numerais para denotar números nem sempre são guias seguros para informar
quando tal prática começou a aparecer. Parece que, em alguma época no século
XI, foi feita uma tentativa para se racionalizar o sistema de propriedade da
terra em partes da Índia, o que levou muitas pessoas a produziremdocumentos
forjados para pedir seus vários lotes. Das 17 inscrições conhecidas usando
numerais antes do século X, todas, à exceção de duas, mostraram ser
falsificações. A mais antiga e indubitável ocorrência do zero na inscrição
escrita na Índia foi em 876 d.C., com os números 50 e 270 sendo representados
em uma versão local dos dígitos indianos.
A história do nosso sistema numérico
fica muito mais clara a partir do século IX d.C. No século VII, quando a
dinastia dos Califas começou em Bagdá, o aprendizado das culturas adjacentes
foi absorvido em uma nova e expansiva cultura árabe. Quando os árabes
conquistavam um país, eles costumavam adquirir seu modo de escrita,
particularmente a notação dos numerais do povo conquistado e procurar traços de
conhecimento na literatura que sobreviveu à guerra.
Graças aos trabalhos do matemático
al-Kharazmi (mais a frente se falará da importância deste homem originário da
Pérsia), o uso dos numerais hindus rapidamente se expandiu por todo o império
árabe. A eventual expansão desses numerais pela Europa é mais facilmente
explicada a partir dos contatos gerados entre árabes e europeus pelo comércio e
pelas guerras. É provável que os comerciantesitalianos conhecessem o sistema de
contas de seus parceiros comerciais, e que os soldadose sacerdotes que
retornaram das cruzadas também tivessem uma ampla oportunidade de ter contato
com o sistema de notação e aritmética árabes. O mais antigo manuscrito europeu contendo
numerais hindu-arábicos de que se tem notícia foi escrito no claustro Albeda,
na Espanha em 976 d.C. Os novos numerais também foram encontrados em outro
manuscrito espanhol de 992 d.C., em um manuscrito do século X encontrado em St.
Gall, e em um documento do Vaticano de 1077 d.C. Entretanto seu uso não foi
muito difundido durante esse período inicial, e é provável que pouquíssimas
pessoas tenham entendido o sistema antes da metade do século XIII.
A
primeira grande tentativa de introduziressa nova forma de notação foi feita por
Leonardo de Pisa (1175 a 1250), mais conhecido pelo nome de Fibonacci (que veio
de filius Bonaccio, o filho de Bonaccio), um dos melhores matemáticos europeus
da Idade Média. Durante o tempo de Fibonacci, Pisa era uma das grandes cidades
comerciais da Itália, e por isso entrou em contato com toda a área do
Mediterrâneo. O pai de Fibonacci era o chefe de uma das casas de comércio
ultramarino, em Bugia, na costa da África Norte. Bugia era um importante centro
para mercadores e estudantesda época e Fibonacci foi mandado, quando tinha 12
anos, para se juntar a seu pai, tendouma chance de ouro para observar os
métodos árabes. Certamente obteve parte de sua educaçãoenquanto estava em
Bugia, e a lenda diz que ele aprendeu árabe e aritmética por um mercadorlocal.
Visitou depois o Egito, Síria, Grécia e França, onde se esforçou para se
informar sobre os sistema aritméticos locais. Ele achou todos esses sistemas
numéricos tão inferioresaos que os árabes utilizavam que, quando voltou a Pisa,
escreveu um livro para explicaro sistema árabe de numerais e cálculo. Esse
livro, nomeado de Liber Abaci(O Livro do Ábaco) foi publicado pela primeira vez
em 1202, e revisto e ampliado em 1228. Era um tomo muito grande para a época,
constituído de 459 páginas divididas em 15 capítulos. Os capítulos 1 a 7
introduziam a notação árabe e as operações fundamentais com números inteiros;
os capítulos 8 a 11 tratavam de várias aplicações, enquanto os restantes eram
dedicados aos métodos de cálculo envolvendo séries, proporções, raízes
quadradas e cúbicas, e uma pequena abordagem sobre geometria e álgebra.
Foi em um desses últimos capítulos em
que ele introduziu o famoso problema do coelho e as séries de números que agora
levam seu nome. O Liber Abaci não foi tão influente quanto deveria ser porque
era muito grande, e portanto difícil de copiar em uma época emque não havia
imprensa. Também continha material avançado que só poderia ser entendido por
estudiosos, tendo sido conhecido apenas por poucas pessoas, nenhuma das quais
parecia termuita influência nos métodos de cálculo usado nas transações
diárias.
Mas embora os esforços de Fibonacci
tivessem pouco sucesso, a idéia dos numerais hindu-arábicos foi gradualmente se
expandindo na Europa. As principais fontes de informação foram as várias
traduções, algumas parciais, do trabalho de al-Kharazmi. O fato de ser a língua
árabe totalmente diferente de qualquer língua européia foi uma grande barreira
para a disseminação das idéias científicas árabes. Para aprender o árabe, era
geralmente necessário viajar a um país de língua árabe, e issoera uma tarefa
difícil, já que alguns árabes não eram simpáticos aos visitantes cristãos(e
vice-versa). Esse problema foi parcialmente resolvido em 1085, quando Alphonso
VI de Leon recapturou Toledo dos mouros e uma grande população de língua árabe
veio à esfera da influência européia. A maioria das primeiras traduções, ou
pelo menos as pessoas que ajudaram os tradutores, vieram dessa população.
Os dois principais trabalhos que
espalharam o conhecimento aritmético hindu-árabe pela Europa foram o Carmen de
Algorismo (o Poema do Algorismo) deAlexander De Villa Dei por volta de 1220 e o
Algorismus Vulgaris (Algorismos Comuns), de John de Halifax, mais conhecido
como Sacrobosco, por volta de 1250 d.C. Esses dois livros foram baseados, pelo
menos em parte, nos trabalhos de al-Kharazmi ou de um de seus sucessores. Foram
elaborados para uso em universidades européias e não pretendiam ser explicações
completas do sistema; preferiram dar simplesmente o básico que o professor
pudesse explicar, linha a linha, para seus alunos. O Carmen de Algorismoera
particularmente difícil de ser seguido, especialmente na discussão do cálculo
de raízes, porque foi escrito em versos hexassílabos.
Apesar disso ele ficou muito popular,
sendo copiado muitas vezes no latim original e sendo até traduzido em inglês,
francês e irlandês. Parte dessa popularidade se deveu ao fato de que Alexander
de Villa Dei (? a 1240), que era nativo da Normandia e escrevia e ensinava em Paris,
já era famoso por uma gramática de latim, também em versos, que era muito
utilizada nas escolas da época. Também o fato de possuir somente 284 linhas o
fazia facilmente copiável pelos escribas, e assim, enquanto se produzia uma
cópia do Liber Abaci,centenas de cópias do Carmenpodiam ser feitas e
distribuídas. O mesmo acontecia com o Algorismus Vulgaris, que tinha somente
4.000 linhas. Sacrobosco, que também ensinava em Paris durante a primeira
metade do século XIII, era conhecido por seu trabalho em astronomia, e isso sem
dúvida contribuiu para o sucesso do Algorismus Vulgaris, que continuou a ser
usado como um texto universitário em aritmética até mesmo depois da invenção da
imprensa. Edições impressas são conhecidas a partir do fim dos séculos XV e XVI.
Uma dos primeiros tradutores do trabalho
deAl-Kharazmi foi Adelard de Bath que, por volta do ano 1120, produziu um texto
em latim cujas primeiras palavras eram Dixit Algorismi …(assim disse o
algorismo…), e que resultou nessa nova ciência que ficou conhecida como
algorismo. Esse termo, e as várias corruptelas originadas por autores
diferentes, finalmente se espalhou através detodas linguagens européias até o
ponto de o processo de fazer aritmética com os numerais hindu-arábicos ser
chamado algarismo, e isso nos deu o termo algoritmo que é tão familiar aos
estudantes de Ciência da Computação. A conexão do Algorismi com al-Kharazmi
perdeu-se e muitosautores inventaram até outras pessoas, como um que citava o
‘Rei Algor’, a quem a origem desses métodos poderia ser atribuída...
A troca dos numerais adicionais
romanospara o sistema posicional dos hindu-árabes foi lenta, durou alguns
séculos. Não era fácil para os europeus entenderem o uso do zero que, enquanto
representando o nada em si, podia magicamente fazer outros dígitos crescerem
dramaticamente em valor. A palavra hindu para o sinal do zero era sunyaque,
muito apropriadamente, queria dizer vazio ou desocupado. Quando o sistema foi
adotado pelos árabes, eles usaram sua própria palavra para desocupado, que é
geralmente escrita como sifrno nosso alfabeto. Essa palavra árabe foi
simplesmente escrita no alfabeto latino ou como zephirum, de onde veio a nossa
palavra zero, ou como cipher, de onde derivou o antigo verbo inglês to cipher,
que significava “fazer aritmética”. Parte do mistério com que o novo sistema
era considerado pode ser observado pelo fato de que a mesma palavra para a raiz
elevou termos que eram envolvidos em mágica e escrita secreta, como calcular ou
decifrarum texto em código.
Esse ar de mistério foi realçado pela
atitude de algumas pessoas que, depois que conheciam o algarismo, acharam que
isso era um conhecimento para ser mantido entre um grupo secreto, e não para
ser explicado para pessoas comuns. Essaatitude é ilustrada em várias figuras do
fim da Idade Média, uma das quais mostra duaspessoas fazendo aritmética, uma
usando os métodos antigos do ábaco enquanto o outro, escondendo seu trabalho do
primeiro, estava usando o novo algarismo.
Por volta de 1375 o uso dos numerais
hindu-arábicos firmou-se na Europa. Eles começaram a aparecer em muitos
documentos diferentes, embora ainda existisse uma grande resistência para a
adoção dos novos números. Em 1229, a cidade de Florença proclamou uma lei que
proibia o uso dos numerais hindu-arábicos, pois eram fáceis de serem alterados
ou forjados (por exemplo, transformar um 0 emum 6 ou 9 deveria ser bastante
fácil). Os mercadores desenvolveram vários truques para prevenir esse tipo de
coisa com os numerais romanos; por exemplo, XII era escrito como Xij,então um i
extra não poderia ser adicionado ao fim sem gerar suspeitas e, fazendo o
primeiro caracter maiúsculo, eles evitavam que qualquer um colocasse caracteres
à esquerda donúmero. Passaria apenas pouco tempo para que se desenvolvessem
dispositivos semelhantes para os novos numerais, mas ainda por volta de 1594 os
mercantes da Antuérpia eram alertados para que não os usassem em contratos ou
em ordens de pagamento bancárias.
Os italianos rapidamente viram a
utilidade do novo sistema para propósitos mercantis e influenciaram toda a
Europa paraa adoção do sistema de valor posicional. Algarismos já eram bem
difundidos por volta de 1400, mas os mercadores mais conservadores continuaram
utilizando os numerais romanos até por volta de 1550, e muitos monastérios e
faculdades os usaram até o meiodo século XVII. Até mesmo por volta de 1681
encontram-se evidências de que o novo sistema ainda não tinha sido
completamente compreendido. Um livro publicado naquele ano teve seus capítulos
numerados como: 1, 2, 3, 4, 5, 6, 7, 8, 9, X, X1, X2, X3, X4 … XXX, XXX1, 302,
303… XXXX, 401, 402,…
Essa permanência dos métodos antigos de
notação foi causado não por falta de conhecimento sobre o novo, mas pelo medo
de que, sem um entendimento completo do sistema, alguma coisa poderia dar
errado. Essetipo de medo é visto de vez em quando até hoje, mas dois exemplos
do século XVII podem ajudar a ilustrar o fenômeno. Willian Oughtred, que se
encontrará mais a frente neste livro ao se falar da régua de cálculo, preferia
calcular ab + ac a calcular a(b+c) por causa do medo de que algum tipo de erro
poderia acontecer em um sistema abreviado. Muitas formas diferentes de numerais
foram usadas na Europa, alguma das quais não seriam reconhecidas da maneira que
elas são agora. As versões manuscritas dos antigos trabalhos são
particularmente difíceis de se ler porque o autor e o copista usaram as formas
de numerais com queeles eram mais familiarizados. Livros produzidos em regiões
próximas, ou separados por poucos anos, usaram caracteres diferentes para pelo
menos alguns dos numerais. Foi a invenção da imprensa que os padronizou na
forma em que nós os conhecemos agora, embora até hoje as formas do 5 e do 7
variem ligeiramente entre europeus e americanos. É interessante notar que,
apesar do fato de que os europeus obtiveram o sistema dos árabes, as duas
culturas utilizam formas de numerais notavelmente diferentes hoje. O turista
europeu tem constantemente problemas com o fato de que o círculo é usado nos
países árabes comosímbolo para o dígito cinco e algo parecido com um ponto é
usado para o símbolo do zero.
4.1.2 Desenvolvimentos iniciais da ciência do
cálculo
Pode-se dizer que os primeiros passos em
direção aos computadores digitais foram dados nas antigas civilizações da
China, do Egito e da Babilônia, há mais de quatro milênios, com os sistemas de
medidas de distâncias, previsão do curso das estrelas e tabelas gravadas em
tábuas de barro usadas para ajudar cálculos algébricos. Durante a civilização
grega algumas destas pré-ciências tomaram forma através dos sistemas
axiomáticos. Enquanto isso, é geralmente aceito que a Álgebra desenvolveu-se em
cada civilização passando por sucessivas etapas, denominadas retórica,
sincopada e simbólica.
Um museu em Oxford possui um cetro
egípcio de mais de 5.000 anos, sobre o qual aparecem registros de 120.000
prisioneiros e 1.422.000 cabras capturadas [Boy74]. Apesar do exagero dos
números, fica claro que os egípcios procuravam ser precisos no contar e no
medir, bastando lembrar o alto grau de precisão das pirâmides. Medir as terras
para fixar os limites das propriedades era uma tarefa importante nas
civilizações antigas, especialmente no Egito. Ali, as enchentes anuais do Nilo,
inundando as áreas férteis, derrubavam os marcos fixados no ano anterior,
obrigando os proprietáriosde terras a refazer os limites de suas área de
cultivo. Em algumas ocasiões, a questão era refazer os limites com base em
informações parciais; conhecida a forma do terreno, tratava-se por exemplo de
reconstruir os lados
Em um sistema axiomático parte-se de
premissas aceitas comoverdadeiras e de regras ditas válidas, que irão conduzir
a sentenças verdadeiras. As conclusões podem ser alcançadas manipulando-se
símbolos de acordo com conjuntos de regras. A Geometria de Euclides é um
clássico exemplo de um procedimento tornado possível por um sistema axiomático.
“A álgebra retórica é caracterizada pela
completa ausência de qualquer símbolo, exceto, naturalmente, que as próprias
palavras estão sendo usadas no seu sentido simbólico. Nos dias de hoje esta
álgebra retórica é usada em sentenças do tipo
‘a soma é independente da ordem dos
termos’, que em símbolos seria designada por ‘a+b = b+a’ ”[Dan54]. A sincopada
é a notação intermediária que antecedeu a simbólica, caracterizada pelo uso de
abreviações que foram sendo contraídas até se tornarem um símbolo [idem].
restantes se um deles se havia preservado. Em outras ocasiões, destruídas por
completo as fronteiras, tratava-se de refazê-las, de modo a remarcar o desejado
número de propriedades, conservando as áreas relativas que possuíam no passado.
Os egípcios tornaram-se hábeis delimitadores de terra e devem ter descoberto e
utilizado inúmeros princípios úteis, relativos às características de linhas,
ângulos e figuras −como por exemplo, o deque a soma de três ângulos de um
triângulo é igual a dois ângulos retos, e o de que a área de um paralelogramo é
igual à do retângulo que possua a mesma base e a mesma altura.
Provavelmente os egípcios obtiveram
esses princípios por intermédio de raciocínios indutivos, fruto da observação e
experimentação: mediam muitos triângulos e ângulos retos, áreas de muitos
paralelogramos e retângulos, e parece que tais conhecimentos limitaram-se a
habilitar os egípcios a resolver problemas de traçados de limites, de
comparação de áreas, de projetos arquitetônicos e de engenharia de construções.
No Egito antigo e na Babilônia existiam calculadores profissionais chamados
escribaspelos egípcios e logísticospelos gregos. As primeiras tentativas de
invenção de dispositivosmecânicos para ajudar a fazer cálculos datam dessas
épocas, como, por exemplo, o ábaco e o mecanismo Antikythera, sobre os quais se
falará mais detidamente no capítulo da Pré-História Tecnológica.
Os gregos assimilaram os princípios
empíricos dos egípcios e deram, a esse delimitado conhecimento, o nome de
Geometria, isto é, medida da terra. Mas diferentemente daqueles, estudaram a
Geometria mais sob seu aspecto teórico, desejando compreender o assunto por ele
mesmo, independentemente de sua utilidade.
Procuraram encontrar demonstrações dedutivas rigorosas das leis acerca do
espaço e mostraram um crescente interesse pelos princípios geométricos.
Pitágoras considerava que, em sua forma pura, a geometria se aproximava
bastante da religião e para ele era o arché, o princípio de tudo, buscado tão
intensamente pelos filósofos cosmológicos. Com a obra Elementos, de Euclides,
reúnem-se e são apresentados de modo sistemático as principais descobertas
geométricas de seus precursores, sendo considerado, até o século XIX, não
somente o livro-texto da Geometria, mas o modelo daquilo que o pensamento
científico deveria ser.
Resumindo, deve-se ver nestes tempos as
tentativas de conceituação do número, o estabelecimento das bases numéricas, o
estudo da Álgebra e da geometria e a busca de uma sistematização do raciocínio,
que tanto atraíram os antigos. Tempos de evolução lenta e, em termos de
produção efetiva de conhecimento matemático, bem abaixo da quantidade e
qualidade produzida quase que exponencialmente a partir do século XV d.C., mas
não menos importantes. De fato, para se compreender a História da Matemática na
Europa é necessário conhecer sua história na Mesopotâmia e no Egito,na Grécia
antiga e na civilização islâmica dos séculos IX a XV.
4.1.3
A Lógica de Aristóteles
Aristóteles (384 a.C. - 322 a.C.) é um
filósofo‘atual’: a ‘questão aristotélica’, isto é, o que Aristóteles realmente
escreveu , o que se deve a ele ou antes, a seus discípulos, é algo complexo,
onde não há acordo definitivo, e provavelmente segundo alguns nunca haverá,
sendo uma questão sobre a qual se continua escrevendo. Aristóteles passou quase
vinte anos na Academia platônica e educou Alexandre Magno (se Platão estivesse
vivo teria visto a realização de seu maior sonho, o de que os governantes
filosofassem). Preocupava-o, como a todos os gregos, a vida política, a cidade,
porémo que mais o interessava era o saber. E foi sábio em quase todos os
domínios: ciências naturais, lógica, física, poética, astronomia, ética,
política, retórica, psicologia, entre outras. Mestrede lógica para centenas de
gerações, aplicou-se, sobretudo, em assentar as bases da “ciênciaque buscamos”,
a “filosofia primeira”, o que depois chamou-se Metafísica. Interessa neste
estudo sobretudo a lógica aristotélica e o seu método axiomático.
A Lógica foi considerada na tradição
clássica e medieval como instrumento indispensável ao pensamento científico.
Atualmente é parte importante na metodologia dedutiva das ciências, além de
constituir-se como um saber próprio, com ligação a relevantes problemas
teóricos. Da Lógica Científica nasceua Lógica Matemática e, dentro desta,
várias filosofias da lógica que interpretam os cálculossimbólicos e sua
sistematização axiomática.
Para a História da Computação interessa
abordar em particular a questão do pensamento dedutivo e matemático, seus
limites, o problema da relativa mecanização do pensamento quantitativo e o
problema da Inteligência Artificial. Da discussão e busca da solução desses
problemas, que entram também no campo filosófico, formou-se a base conceitual,
teoria da computabilidade, necessária para o advento do computadores.
O início da ciência da Lógica
encontra-se na antiga Grécia [Kne68] [Boc66]. As polêmicas geradas pela teoria
de Parmênides e os famosos argumentos de Zenão, que negavam a realidade do
movimento fazendo um uso indevido do princípio da não-contradição, contribuíram
para a distinção dos conceitos, para se ver a necessidade de argumentar com
clareza, mediante demonstrações rigorosas, e assim responder às objeções dos
adversários. Mais tarde, as sutilezas dos sofistas, que reduziam todo o saber à
arte de convencer pelas palavras, levaram Sócrates a defender o valor dos
conceitos e tentar defini-los com precisão. Assim a Lógica como ciência vai se
formando pouco a pouco, principalmente com Sócrates e Platão. Mas Platão
pensava que qualquer conteúdo da mente existia tal qual na realidade e
Aristóteles reage ao seu mestre, dizendo que as idéias existem somente na mente
humana, mas correspondendo a realidades.
Com Aristóteles é que se dá o verdadeiro
nascimento da Lógica como ciência das idéias e dos processos da mente. “Até
hoje não existe forma alguma concebível de lógica, por muito distinta que seja
da lógica formal, que não tenha algum tipo de conexão com a obra aristotélica”.
Ele foi o primeiro lógico formal da história, tendo desenvolvido ao menos duas
formas distintas de lógica formal, elaborando algumas de suas partes de maneira
praticamente completa e deixando esboçados outros tipos de lógicas que somente
na época atual foram novamente tratadasParmênides (540 a 470 a.C.) negava a
existência do movimento (“devir”) e afirmava a existência de um único ser
(panteísmo), tendo enunciado o princípio da não contradição:‘algo não pode ser
e não ser ao mesmo tempo, sob o mesmo aspecto e no mesmo sujeito’. Seu
discípulo Zenão (490 a 430 a.C.) foi o fundador da dialética e radicalizou a
negação do movimento. Este envolveria um paradoxo: para mudar completamente é
preciso antes mudar parcialmente, e assim infinitamente, o que levaria a
concluir que o movimento não existe (paradoxos de Aquiles e a tartaruga e os
pontos de percurso de uma flecha)
Além do mais interessa o estudo das
obras do Filósofo pois tem um especial valor pedagógico, ao apresentar de
maneira unitária a maior parte dos problemas lógicos, contemplados com o vigor
característico que acompanha uma ciência emergente, e mais acessível ao
principiante que muitas apresentações modernas de lógica formal.
Aristóteles escreveu uma série de
trabalhosque seriam editados por Andrônico de Rodes no século I d.C. e que
receberam posteriormente o nome de Organon(“Instrumento”), de acordo com a
concepção segundo a qual a Lógica deveria fornecer os instrumentos mentais
necessários para enfrentar qualquer tipo de investigação. Essa obra compreende
os seguintes livros: Categorias, Analíticos I, Analíticos II, o Peri Hermeneias
(ou sobre a interpretação), Tópicose Refutação de argumentos sofistas. A grande
novidade aristotélica está nos Analíticos, com o silogismo. Aristóteles chamava
a Lógica com o termo “analítica” (e justamente “Analíticos” são intitulados os
escritos fundamentais do Organon). A analítica (do grego analysis, que
significa “resolução”) explica o método pelo qual,partindo de uma dada
conclusão, resolve-se precisamente nos elementos dos quais deriva, isto é, nas
premissas e nos elementos de que brota, e assim fica fundamentada e
justificada.
Aristóteles construiu uma sofisticada
teoria dos argumentos, cujo núcleo é a caracterização e análise dos chamados
silogismos, os típicos raciocínios da lógica aristotélica. O argumento “Todo
homem é mortal. Sócrates é homem. Logo, Sócrates é mortal” é o exemplo típico
do silogismo perfeito. Conforme o próprio Aristóteles, “o silogismo é um
discurso no qual, sendo admitidas algumas coisas, outra coisa distinta resulta
necessariamente dessas coisas afirmadas primeiro, pelo único fato de que essas
existem”.
Nos Primeiros Analíticos, Aristóteles
desenvolveu minuciosamente o sistema dos silogismos, mostrando os princípios
maiores que o sustentam e as regras que lhe devem moldar a construção. A
análise do Filósofo é tão ampla quanto engenhosa e envolve também as assim
chamadas “modalidades” e os silogismos modais.
Entre as características mais
importantes da silogística aristotélica está a de se ter pensado pela primeira
vez na história da lógicaem fazer uso de letras que poderiam ser usadas para
representar uma expressão substantiva qualquer, fundamental para o
desenvolvimento do simbolismo lógico. É também com Aristóteles que se encontra
uma das primeiras tentativas de se estabelecer um rigor nas demonstrações
matemáticas. Ao definir os dois tipos de demonstração, quia (dos efeitos às
causas) e propter quid (das causas aos
efeitos), dizia (I Anal. Post., lect. 14) que as matemáticas
utilizampreferencialmente esse modo de demonstrar, e por isso esta ciência é
essencialmente dedutiva: “algumas vezes o mais conhecido por nós em si mesmo e
por natureza é também o maiscognoscível em si mesmo e por natureza.
Assim acontece nas matemáticas, nas
quais, devidoà abstração da matéria, não se efetuam demonstrações mais do que a
partir dos princípios formais. E assim as demonstrações procedem desde o mais
cognoscível em si mesmo”.
No entanto, para que haja demonstração,
os primeiros princípios devem ser indemonstráveis, já que, do contrário, se
procederia a uma regressão ao infinito. E como se conhece a verdade dos
primeiros princípios? Por indução. “À força de contemplar a freqüência dos
acontecimentos, buscando o universal”. Os primeiros princípios não são inatos;
são adquiridos na experiência, analisando-se as percepções que contém um
elemento universal. No entanto esta ‘indução’ citada porAristóteles nada tem a
ver com ‘demonstração por indução completa’ ou o ‘método da indução finita’ ou,
mais ainda, ‘raciocínio por recorrência’, estabelecido pelo matemático italiano
Giuseppe Peano.
Sobre esta temática ver anexo sobre
Dedução e Indução na Matemática. E no meio de tudo isso emergiu aquela queé
considerada uma das mais definitivas contribuições do Organon: o método
axiomático, que recebeu precisamente no século XX sua maior valoração, ao
apresentar-se comoo caminho universal dentro do qual se enquadram todas as
ciências dedutivas. Umpouco mais sobre este assunto é exposto no anexo O método
axiomático e as ciências dedutivas.
4.1.4
A contribuição dos megáricos e estóicos
Embora Aristóteles seja o mais brilhante
e influente filósofo grego, outra importante tradição argumentativa formou-se
na antiga Grécia, com os megáricos e estóicos. Pouco conservada pela tradição,
merece um melhor tratamento dos historiadores, porque o que deles se conhece
sugere que esses gregos eram altamente inteligentes.
Os megáricos (em função de sua cidade,
Mégara) interessaram-se por certos enigmas lógicos como o conhecido “paradoxo
do mentiroso”: quem diz “O que eu afirmo agora é falso”, enuncia algo
verdadeiro ou falso? Umdeles, Diodoro Cronus, que morreu por volta de 307 a.C.,
formulou interessante concepção modal, relacionando possibilidade, tempo e
verdade, enquanto outro megárico, de nome Fílon, estudou proposições do tipo
“Se chove então a rua está molhada”, construída com o auxílio das expressões
“se..., então...” conhecidas
Modalidades são as expressões do tipo “é
possível que...”, “é necessário que...”. como condicionais. Ele as definiu em
termos extremamente polêmicos, mas que seriam assumidos como corretos, vinte e
três séculos mais tarde pelos fundadores da Lógica Contemporânea.
Os estóicos (da chamada escola
filosófica de “Stoa”, que quer dizer “pórtico”) desenvolveram também notáveis
teorias lógicas.Tinham bastante presente a diferença que há entre um código de
comunicação específico, de um lado, e o que se pode expressar através do uso de
tal código. Assim sendo, um conceitode “proposição” análogo ao usado na atual
Lógica, já estava presente, de modo virtual, na filosofia estóica da linguagem.
Porém a mais notável contribuição
estóica à Lógica foi obra de Crísipo de Soles (280-206 a.C.), homem de vasta
produção poligráfica (750 livros). Ele estudou as sentenças condicionais e
também as disjuntivas(regidas pela partícula “ou”) e as copulativas (regidas
pelo “e”), tendo também reconhecido claramente o papel lógico desempenhado pela
negação.
Além disto, Crísipo foi capaz de
relacionar taisidéias com as modalidades, elaborando, então, um sistema de
princípios lógicos que, no seu campo específico, foi muito além dos poucos
resultados obtidos por Aristóteles e seu discípulo Teofrasto. Por tal razão,
Crísipo é reconhecido como o grande precursor daquilo que hoje se chama
“Cálculo Proposicional”, o primeiro capítulo da Lógica desenvolvida a partir do
último quarto do século XIX [Bri79b].
4.1.5 Euclides e o Método Axiomático
Com sua obra Elementos, o matemático
grego Euclides (330 a.C. - 277 a.C.) deu uma forma sistemática ao saber
geométrico, implementando as idéias sobre axiomatização, de Aristóteles, para
uma ciência exata. No primeirolivro dos Elementos, ele enuncia vinte e três
definições, cinco postulados e algumas noções comuns ou axiomas. Em seguida ele
deduz proposições ou teoremas, os quais constituem o saber geométrico, como por
exemplo: “se em um triângulo dois ângulos são iguais entre si, também os lados
opostos a esses ângulos são iguais entre si”. Postulados, axiomas e definições
constituem os pontos de partida para as demonstrações de Euclides. Seu objetivo
é mostrar todos os outros princípios geométricos − primeiro os da Geometria
Plana e depois os da Geometria Espacial −, revelando que são decorrências
necessárias dos princípios fundamentais.
Quais são os traços característicos das
técnicas adotadas por Euclides? Em primeiro lugar ele enuncia as sua leis em
forma universal:não se detém em determinada figura ou linha, mas examina as
propriedade que todas as figuras e todas as linhas de tal ou qual tipo devem
ter. Formula tais leis de maneira rigorosa e absoluta e, mais ainda, demonstra-as.
Seu livro, na verdade, consiste em demonstrações colocadas de maneira
sistemática, não indutiva, mas dedutiva, por meio das quais procura
estabeleceras suas conclusões com o rigor da lógica.
Euclides visava aperfeiçoar o
conhecimento acerca de pontos, linhas e figuras, tornando mais rigorosas as
demonstrações de leis já conhecidas, e procurava aumentar esse conhecimento,
demonstrando leis novas, até então desconhecidas.Mas talvez não se esgotasse aí
a motivação − ou pelo menos as conseqüências − do que elaborou o geômetra. A
colocação de axiomas e teoremas em forma dedutiva deu à Geometria uma
apresentação mais elegante e transparente, tornando facilmente perceptíveis as
interessantes conexões lógicas ali introduzidas. A axiomatização do saber
Geométrico abriu um sem fim de perspectivas para os estudiosos das ciências
exatas, que adotam as exposições axiomáticas −e buscam axiomatizações mais
elegantes e econômicas −não só para dar rigor às suas demonstrações, mas
descobrir novas conexões lógicas.
Esse é portanto o modo como Euclides
ordena o conhecimento geométrico no chamado sistema euclidiano. Durante séculos
essesistema valeu como modelo insuperável do saber dedutivo: os termos da
teoria são introduzidos depois de terem sido definidos e as proposições não são
aceitas se não forem demonstradas. Euclides escolhia as proposições primitivas,
base da cadeia sobre a qual se desenvolvem as deduções sucessivas, de tal modo
que ninguém pudesse levantar dúvidas sobre a suaveracidade: eram auto-evidentes,
portanto isentas de demonstração. Leibniz afirmaria mais tarde que os gregos
raciocinavam com toda a exatidão possível em matemática e deixaram à humanidade
modelos de arte demonstrativa ([RA91], volume III).
Em resumo, Euclides, como já fizera
Aristóteles, buscou o ideal de uma organização axiomática, que em última
instância se reduz à escolha de um pequeno número de proposições em princípio
aceitas naquele domínio do conhecimento, e à posterior dedução de todas as
outras proposições verdadeiras desse domínio, a partir delas. Surge com
Euclides e
As definições pretendem substancialmente
explicitar os conceitos da geometria (“ponto é aquilo que não tem partes”;
“linha é comprimento sem largura”, etc.). Os postulados representam verdades
indubitáveis típicas do saber geométrico (“pode-se levar uma reta de qualquer
ponto a qualquer ponto”; “todos os ângulos retos são iguais”; etc.). Os axiomas
são verdades que valem universalmente, não só na geometria (“o todo é maior que
a parte”; “coisas que são iguais a uma mesma coisa são iguais entre si”, etc.).
Aristóteles (estará plenamente
desenvolvida no início do século XX com a escola formalista de Hilbert) a busca
de uma economia do pensamento(um bom texto sobre o assunto pode ser encontrado
em [Wil65]). A História da Computação tem um marco significativo nesse ponto da
História: o começo da busca da automatização do raciocínio e do cálculo.
Mas havia um problema no sistema de
Euclides: suas “evidências” não eram assim tão evidentes. O seu quinto
postulado não convenceu de modo algum, e
despertou perplexidade na história do próprio pensamento grego, depois no árabe
e no renascentista. No século XIX, Karl Friedrich Gauss (1777-1855) viu com
toda a clareza a não demonstrabilidade do quinto postulado e a possibilidade da
construção de sistemas geométricos não euclidianos. Janos Boulay (1802-1860),
húngaro, e Nicolai Ivanovic Lobacewskiy (1793-1856), russo, trabalhando
independentemente, elaboraram uma geometria na qual o postulado da paralela não
vale mais.
A conseqüência desses fatos foi a
eliminação dos poderes da intuição na fundamentação e elaboração de uma teoria
geométrica: os axiomas não são mais “verdades evidentes” que garantem a
“fundação” do sistema geométrico, mas puros e simples pontos de partida, escolhidos
convencionalmente para realizar uma construção dedutiva. Mas, se os axiomas são
puros pontos de partida, quem garantirá que, continuando-se a deduzir teoremas,
não se cairá em contradição?
Esta questão crucial dos fundamentos da
matemática levará aos grandes estudos dos finais do século XIX e inícios do XX
e será o ponto de partida do projeto formalista de David Hilbert, assim como de
outras tentativas de se fundamentar a matemática na lógica e na teoria dos
conjuntos, como as propostas por Frege, Russell e Cantor. E será dessa
seqüência de sucessos e fracassos que se produzirá a base da Computação, com
Turing, von Neumann, Post, Church, e outros mais.
4.1.6 Diophantus, al-Kharazmi e o desenvolvimento
da Álgebra
O seguinte problema no Rhind Papyrus, do
Museu britânico em Londres, foi escrito por volta do ano 1650 a.C.:
“Divida
100 pães entre 10 homens, incluindo um barqueiro, um capataz e um vigia, os
quais recebem uma dupla porção cada. Quanto cabe a cada um? Isto naturalmente
pode ser resolvido usando-se Álgebra”.
O primeiro tratado de Álgebra foi
escrito pelo grego Diophantus (200 - 284), da cidade de Alexandria, por volta
do ano 250. O seu Arithmetica, composto originalmente por 13 livros dos quais
somente 6 se preservaram, era um tratado “caracterizado por um alto grau de
habilidade matemática e de engenho: quanto a isto, o livro pode ser comparado
aos grandes clássicos da idade alexandrina anterior” [Boy74]. Antes de
Diophantus, toda a ‘álgebra’ que havia, incluindo problemas, operações, lógica
e solução, era expressada sem simbolismo −palavra chave sobre a qual ainda se
voltará a falar −; ele foi o primeiro a introduzir o simbolismo na matemática
grega. Para uma quantidade desconhecida usava um símbolo (chamado arithmos),
que caracterizava um número indefinido de unidades. Pela ênfase dada em seu
tratado à solução de problemas indeterminados, tal tratado tornou-se conhecido
como análise diofantina, que em geral faz parte da disciplina de Teoria dos
Números. Seu trabalho, contudo, não é suficiente para lhe conferir o título de
pai da Álgebra.
Mas é com os persas e principalmente com
os árabes que a Álgebra poderá ser efetivamente chamada de ciência. É
interessante notar que ao se falar que a Geometria é uma ciência grega ou que a
Álgebra é uma ciência árabe, está se afirmando algo mais do que a “casualidade”
de terem sido gregos ou árabes seus
fundadores ou promotores.
Ordinariamente tendemos a pensar que o
conhecimento científico independe de latitudes e culturas: uma fórmula química
ou um teorema de Geometria são os mesmos em inglês ou português ou chinês e,
sendo a comunicação, à primeira vista, o único problema, bastaria uma boa
tradução dos termos próprios de cada disciplina. Mas não é assim. Na verdade a
evolução da ciência está repleta de interferências histórico-culturais,
condicionando metodologias, o surgimento de novas áreas do saber, e assim por
diante. Os juristas árabes referem-se à Álgebra como “o cálculo da herança”,
segundo a lei corânica, uma problemática importante dentro do Islam, e aíjá
temos um exemplo de condicionamento histórico-cultural. Não foi por mero acaso
quea Álgebra surgiu no califado abássida (“ao contrário dos Omíadas, os
Abássidas pretendem aplicar rigorosamente a lei religiosa à vida cotidiana”
[AG81]), no seio da “Casa da Sabedoria” (Bayt al-Hikma) de Bagdá, promovida
pelo califa Al-Ma’amun; uma ciência nascida em língua árabe e antagônica da
ciência grega.
Embora hoje a Álgebra possa parecer
objetiva e axiomática, com uma sintaxe de estruturas operatórias e destituída
de qualquer alcance semântico, ela é o resultado da evolução da velha al’jabr,
“forjada por um contexto cultural em que não são alheios elementos que vão
desde as estruturas gramaticais do árabe à teologia muçulmana da época”.
Muhammad Ibn Musa Al-Khwarizmi (780 - 850), matemático e astrônomo persa, foi
membro da “Casa da Sabedoria”, a importante academia científica de Bagdá, que
alcançou seu resplendor com Al-Ma’amun (califa de 813 a 833). A ele,
Al-Khwarizmi dedicou seu Al-Kitab al-muhtasar fy hisab al-jabr wa al-muqabalah
(“Livro breve para o cálculo da jabre da muqabalah”). Al-jabr,que significa
força que obriga, restabelecer, precisamente porque a Álgebra é “forçar cada
termo a ocupar seu devido lugar”. Já no começo do seu Kitab, Al-Khwarizmi
distingue seis formas de equação, às quais toda equação pode ser reduzida(e,
canonicamente resolvida). Na notação atual:
Neste sentido foi o matemático grego que
maior influência teve sobre a moderna teoria dos números. Em particular Fermat
foi levado ao seu ‘último’ teorema quando procurou generalizar um problema que
tinha lido na Arithmeticade Diophantus: dividir um dado quadrado em dois
quadrados (ver F.E. Robbins, P.Mich. 620: A Series of Arithmetical Problems, Classical
Philology, pg 321-329, EUA, 1929).
Apenas sob certo aspecto isto se
justificaria. Em uma visão um tanto arbitrária e simplista poderíamos dividir o
desenvolvimento da álgebra em 3 estádios: (1) primitivo, onde tudo é escrito em
palavras; (2) intermediário, em que são adotadas algumas simplificações; (3)
simbólico ou final. Neste contexto, Arithmeticadeve ser colocada na segunda
categoria.
Restabelecer, por algo no seu devido
lugar, restabelecer uma normalidade. Como observa a palavra tajbir significa
ortopedia e jibarathsignifica redução, no sentido médico (por o osso no devido
lugar) e na Espanha, no tempo em que os barbeiros acumulavam funções, podia-se
ver a placa “Algebrista e Sangrador” em barbearias.
Al-jabré a operação que soma um mesmo
fator (afetado do sinal +) a ambos os membros de uma equação, para eliminar um
fator afetado pelo sinal -. Já a operação que elimina termos iguais de ambos os
lados da equação é al-muqabalahque significa estar de frente, cara a cara,
confrontar. Por exemplo: em um problema onde os dados podem ser colocados sob a
forma 2x2+100–20x=58, Al-Khwarizmi procede do seguinte modo:
2x+100=58+20x
(por al-jabr). Divide por 2 e reduz os termos semelhantes: 2x+21= 10x (por
al-muqabalah). E o problema já está canonicamente equacionado.
Al-Kharazmi introduziu a escrita dos
cálculos no lugar do uso do ábaco. De seu nome derivaram as palavras, como já
citado acima na história do desenvolvimento do conceito de número, algarismoe
algoritmo [Kar61]. Embora não muito visível ainda, deve-se chamar a atenção
para essa disciplina da Álgebra, que deve ser colocada entre as ciências que
fundamentaram o desenvolvimento da
A palavra algoritmo na matemática
designa um procedimento geral de cálculo, que se desenvolve, por assim dizer,
automaticamente, poupando-nos esforço mental durante o seu curso; este termo
será depurado e aproveitado dentro da Computação. Dele se tornará a falar mais
à frente Computação. Pois o computador e todos os instrumentos que o precederam
(réguas de cálculo, máquina de Pascal, a calculadora de Leibniz, a máquina
analítica de Babbage, etc.) são somente as manifestações práticas que foram
surgindo, com naturalidade, em resultado da busca pelo homem de reduzir os
problemas a expressões matemáticas, resolvendo-as segundo regras. E isto, há
muitos séculos, já tinha tomado o nome de Álgebra, a “arte dos raciocínios
perfeitos” como dizia Bhaskara, o conhecidomatemático hindu do século XII. Com
os árabes, depois de relativo obscurecimento da cultura grega, dá-se
continuidade ao processo que proporcionará as bases fundamentais para o
raciocínio automatizado, fundamental na Ciência da Computação.
4.1.7 A automatização do raciocínio
Ainda dentro do período acima
estabelecido (4.200 a.C. até meados do ano 1600 d.C) iniciou-se concretização
de uma antiga meta: a idéia de se reduzir todo raciocínio a um processo
mecânico, baseado em algum tipo decálculo formal. Isto remonta a Raimundo
Lúlio. Embora negligenciado pela ciência moderna, Raimundo Lúlio (1235 - 1316),
espanhol, figura pletórica de seu tempo, em seu trabalho Ars Magna(1305 -
1308), apresentou a primeira tentativa de um procedimento mecânico para
produzir sentenças logicamente corretas [Her69]. Lúlio acreditava que tinha
encontrado um método que permitia, entre outras coisas, tirar todo tipo de
conclusões, mediante umsistema de anéis circulares dispostos concentricamente,
de diferentes tamanhos e graduáveis entre si, com letras em suas bordas.
Invenção única, tentará cobrir e gerar,
representando com letras −que seriam categorias do conhecimento −, todo o saber
humano, sistematizado em uma gramática lógica. Conforme Hegel: “A tendência
fundamental da ‘arte’ de Raimundo Lúlio consistia em enumerar e ordenar todas
as determinações conceituais a que era possível reduzir todos os objetos, as
categorias puras com referência àsquais podiam ser determinados, para, desse
modo, poder assinalar facilmente, com respeito a cada objeto, os conceitos a
ele aplicáveis. Raimundo Lúlio é, pois, um pensador sistemático, ainda que ao
mesmo tempo mecânico.
Deixou traçada uma tabela em círculos
nos quaisse acham inscritos triângulos cortados por outros círculos. Dentro
desses círculos, ordenava as determinações conceituais, com pretensões
exaustivas; uma parte dos círculos é imóvel, a outra tem movimento. Vemos, com
efeito, seis círculos, dois dos quais indicam ossujeitos, três os predicados e
o sexto as possíveis perguntas. Dedica nove determinações a classe, designando-as
com as nove letras B C D E F G H I K. Obtém, desse modo, nove predicados
absolutos, que aparecem escritos ao redor de seu quadro: a bondade, a
magnitude, a duração, o poder, a sabedoria, a vontade, a virtude, a verdade, a
magnificência; em seguida,vêm nove predicados relativos: a diferença, a
unanimidade, a contraposição, o princípio, a metade, o fim, o ser maior, o ser
igual e o ser menor; em terceiro lugar, temos as perguntas: sim?, quê?, de
onde?, por quê?, quão grande?, de que qualidade?, quando?, de onde?, como e com
quê?, a última das quais encerra duas determinações; em quarto lugar,aparecem
nove substâncias (esse), a saber: Deus (divinum), os anjos (angelicum), o céu
(coeleste), o homem (humanum), Imaginativum, Sensitivum, Vegetativum, Elementativum;
em quinto lugar, nove acidentes, quer dizer, nove critérios naturais: a
quantidade, a qualidade, a relação, a atividade,a paixão, o ter, a situação, o
tempo e o lugar; por último, nove critérios morais, que são as virtudes: a
justiça, a prudência, a valentia, a temperança, a fé, a esperança, o amor, a
paciência e a piedade, e nove vícios: a inveja, a cólera, a inconstância, a
avareza, a mentira, a gula, a devassidão, o orgulho e a preguiça (acedia).
Todos esses círculos tinham de ser colocados necessariamente de determinado
modo para poder dar como resultado as combinações desejadas. Conforme as regras
de colocação, segundo as quais todas as substâncias recebem os predicados
absolutos e relativos adequados a estes, deviam ser esgotados a ciência geral,
a verdade e o conhecimento de todos os objetos concretos.” [Roc81].
Os procedimentos estabelecidos por Lúlio
não foram muito válidos. Mas o mais importante em Lúlio é a idéia concebida,
genial sob certo aspecto. Tanto que seu trabalho influenciará muitos
matemáticos famosos, do nível de um Cardano (século XVI), Descartes (século
XVII), Leibniz (séculos XVII/XVIII), Cantor (séculos XIX/XX), entre outros.
Raimundo Lúlio é considerado o precursor da análise combinatória. Como dirá R.
Blanché: “encontramos em Lúlio, pelos menos em germe e por mais que ele não
soubesse tirar partido disso por inabilidade, duas idéias que iriam setornar
predominantes nas obras de Lógica, primeiro em Leibniz e depois em nossos
contemporâneos: as idéias de característica e de cálculo (...). Com a ajuda
desse simbolismo, taisautores pretendem permitir que as operações mentais,
freqüentemente incertas, fossem substituídas pela segurança de operações quase
mecânicas, propostas de uma vez por todas” ([RA91], volume III).
Pode-se ver em Raimundo Lúlio os
primórdios do desenvolvimento da Lógica Matemática, isto é, de um novo
tratamento da ciência da Lógica: o procurar dar-lhe uma forma matemática. O
interesse deste trabalho é caracterizar a Lógica Matemática, sem aprofundar nas
discussões filosóficas −ainda em aberto −sobre os conceitos “lógica matemática”
e “lógica simbólica”, se é uma lógicadistinta da ciência matemática ou não,
pois sem dúvida alguma a Computação emergirá dentro de um contexto da evolução
deste novo tratamento da lógica.
A Lógica Matemática ergue-se a partir de
duas idéias metodológicas essencialmente diferentes. Por um lado é um cálculo,
daí sua conexão com a matemática. Por outro lado, caracteriza-se também pela
idéia de uma demonstração exatae, nesse sentido, não é uma imitação da
matemática nem esta lhe serve de modelo, mas pelo contrário, à Lógica caberá
investigar os fundamentos da matemática com métodos precisos e oferecer-lhe o
instrumento para uma demonstração rigorosa.
A palavra Álgebra voltará a aparecer com
o inglês Robert Recorde(1510?-1558), em sua obra Pathway of Knowledge(1551),
que introduz o sinal de ‘=’ e divulga os símbolos ‘+’ e ‘−‘, introduzidos por
John Widmann (Arithmetica, Leipzig, 1489). Thomas Harriot(1560-1621)
prosseguirá o trabalho de Recorde, inventando os sinais ‘>’ e ‘<’.
Willian Oughtred(1574-1621), inventor da régua de cálculo baseada nos
logaritmos de Napier, divulgou o uso do sinal ‘×’, tendo introduzido os termos
seno, coseno e tangente. Em 1659 J.H. Rahn usou o sinal ‘÷’. Todos esses
matemáticos ajudaram a dar à Álgebra sua forma mais moderna.
4.2
A mecanização do cálculo
Se é aceito o ponto de vista de
estudiosos como Needham [Nee59], a data de 1600 pode ser vista como um bom
divisor de águas dentro da história da ciência em geral. Vale a pena lembrar
que o estudo da matemática no tempo anterior a essa data, na Europa, não havia
avançado substancialmente em relação ao mundo árabe, hindu ou chinês. A álgebra
árabe fora perfeitamente dominada e tinha sido aperfeiçoada, e a trigonometria
se tornara uma disciplina independente [Boy74]. O casamento de ambas pela
aplicação dos métodos algébricos no terreno dageometria foi o grande passo e
Galileu (1564 - 1642) aí tem um papel preponderante. Ele uniuo experimental ao
matemático, dando início à ciência moderna. Galileu dá uma contribuiçãodecisiva
a uma formulação matemática das ciências físicas. A partir de então, em
resultado desse encontro da matemática com a física, a ciência tomou um novo
rumo, a um passo mais rápido, e rapidamente as descobertas de Newton (1643
-1727) sucedem às de Galileu.
Trata-se de um período de transição
porexcelência, que preparou o caminho para uma nova matemática: não já uma
coleção detruques, como Diophantus possuíra, mas uma forma de raciocinar, com
uma notação clara. É o começo do desenvolvimento da idéia de formalismo na
Matemática, tão importante depois para a
fundamentação teórica da Computação.
4.2.1 Leibniz, o precursor da Lógica Matemática
moderna
A Lógica Moderna começou no século XVII
com o filósofo e matemático alemão Gottfried Wilhelm Leibniz (1646 - 1716).
Seus estudos influenciaram, 200 anos mais tarde, vários ramos da Lógica
Matemática moderna e outras áreas relacionadas, como por exemplo a Cibernética
(Norbert Wiener dizia que “se fosseescolher na História da Ciência um patrono
para a Cibernética, elegeria Leibniz” [Wie70]).
Entre outras coisas, Leibniz queria
dotar a Metafísica (aquela parte da Filosofia que estuda o “ser” em si) de um
instrumento suficientemente poderoso que a permitisse alcançar o mesmo grau de
rigor que tinha alcançado a Matemática. Parecia-lhe que o problema das
interrogações e polêmicas não resolvidas nas discussões filosóficas, assim como
a insegurança dos resultados, eram fundamentalmente imputáveis à ambigüidade dos
termos e dos processos conclusivos da linguagem ordinária.Leibniz tentaria
elaborar sua nova lógica precisamente como projeto de criação de uma lógica
simbólica e de caráter completamente calculístico, análogos aos procedimentos
matemáticos.
Historicamente falando, tal idéia já
vinha sendo amadurecida, depois dos rápidos desenvolvimentos da Matemática nos
séculos XVI e XVII, possibilitados pela introdução do simbolismo. Os
algebristas italianos do séculoXVI já tinham encontrado a fórmula geral. Lembrando
algo que já foi dito, é importante ressaltar que desde suas origens
aristotélicas a lógica havia assumido claramentealguns recursos fundamentais,
como a estrutura formal, o emprego de certo grau de simbolismo, a
sistematização axiomática e o identificar-se com a tarefa de determinar as
“leis” do discurso (tomando, por exemplo, a linguagem como tema de estudo),
características que foram assumidas pela Lógica Moderna. para a resolução das
equações de terceiro e quarto graus, oferecendo à Matemática um método geral
que tinha sido exaustivamente buscado pelos antigos e pelos árabes medievais.
Descartes e Fermat criaram a geometria analítica,e, depois de iniciado por
Galileu, o cálculo infinitesimal desenvolveu-se com grande rapidez, graças a
Newton e aopróprio Leibniz. Ou seja, as matemáticas romperam uma tradição
multissecular que as havia encerrado no âmbito da geometria, e estava se
construindo um simbolismo cada vez mais fácil de manejar e seguro, capaz de
funcionar de uma maneira, por assim dizer, mecânica e automática, sujeito a
operações que, no fundo, não eram mais do que regras para manipulação de
símbolos, sem necessidade de fazer uma contínua referência a conteúdos
geométricos intuitivos.
Leibniz deu-se conta de tudo isto e
concebeu, também para a dedução lógica, uma desvinculação análoga com respeito
ao conteúdo semântico das proposições, a qual além de aliviar o processo de
inferência do esforço de manter presente o significado e as condições de
verdade da argumentação, pusesse a dedução a salvo da fácil influência que
sobre ela pode exercer o aspecto material das proposições. Deste modo coube a
ele a descoberta da verdadeira natureza do “cálculo” em geral,além de
aproveitar pela primeira vez a oportunidade de reduzir as regras da dedução
lógicaa meras regras de cálculo, isto é, a regras cuja aplicação possa
prescindir da consideração do conteúdo semântico das expressões. Leibniz
influenciou seus contemporâneos e sucessores através de seu ambicioso programa
para a Lógica. Esse programa visavacriar uma linguagem universal baseada em um
alfabeto do pensamento ou characteristica universalis, uma espécie de cálculo
universal para o raciocínio.
Na visão de Leibniz a linguagem
universal deveria ser como a Álgebra ou como uma versão dos ideogramas
chineses: uma coleção de sinais básicos que padronizassem noções simples não
analíticas. Noções mais complexas teriam seu significado através de construções
apropriadas envolvendo sinais básicos, queiriam assim refletir a estrutura das
noções complexas e, na análise final, a realidade. O uso de numerais para
representar noções não analíticas poderia tornar possível que as verdades de
qualquer ciência pudessem ser “calculadas” por operações aritméticas, desde
queformuladas na referida linguagem universal([Bri79a], volume XI). Com isso se
poderia substituir o genérico dialoguemos por um mais exato calculemos.
Conforme o próprio Leibniz,“Quando orietur controversiae, non magis
disputatione opus erit inter duo philosophos, quam inter duo computistas.
Sufficet enin calamos in manus sumere, sedereque ad ábacos et sib mutuo (accito
si placet amico) dicere: calculemus”.
As discussões não seriam, assim,
disputascontrovertidas, de resultado duvidoso e final não concluído, mas sim
formas de cálculo que estabelecessem a maior ou menor verdade de uma
proposição. Essa idéia de Leibniz sustentava-se em dois conceitos intimamente
relacionados: o de um simbolismo universal e o de um cálculo de raciocínio
(isto é, um método quase mecânico de raciocínio). Isso, para a História da
Computação, tem um particular interesse, pois esse calculus ratiocinatorde
Leibniz contém o embrião da machina ratiocinatrix, a máquina de raciocinar
buscada por Turing e depois pelos pesquisadores dentro do campo da Inteligência
Artificial. Leibniz, assim como Boole, Turing, e outros – basta lembrar o
ábaco, o
Quando aparecer uma controvérsia, já não
haverá necessidade de uma disputa entre dois filósofos mais do que a que há
entre dois calculistas. Bastará, com efeito, tomar a pena na mão, sentar-se à
mesa (ad abacus) e (ao convite de um amigo, caso se deseje), dizer um ao outro:
Calculemos!” [Boc66].
Deve-se observar que destas
conceituações descenderam a notação da matemática e da lógica do século XX. O
próprio Leibniz, e Pascal um pouco antes, procuraram construir uma máquina de
calcular. Nota-se portanto que o mesmo impulso intelectual que o levou ao desenvolvimento
da Lógica Matemática o conduziu à busca da mecanização dos processos de
raciocínio.
Interessa também chamar a atenção sobre
a idéia de uma linguagem artificial que já aparece em Leibniz. Como já foi
dito, ele captoumuito bem as inúmeras ambigüidades a que estão submetidas as
linguagens de comunicação ordinárias e as vantagens que apresentam os símbolos
(que ele chamava notae) da Aritmética e Álgebra, ciências nas quais a dedução
consiste no emprego de caracteres. Ao querer dar à Lógica uma linguagem livre
de ambigüidades e ao procurar associar a cada idéia um sinal e obter a solução
de todos os problemas mediante a combinação desses sinais, Leibniz acabou
provocando um novo desenvolvimento da própria lógica.
A idéia de uma linguagem artificial ou a
redução do raciocínio ao cálculo, como já visto em Lúlio e agora em Leibniz,
não é, portanto, patrimônio do século XX. A contribuição de Leibniz ao
desenvolvimento da lógica aparece sob dois aspectos: ele aplicou com sucesso
métodos matemáticos para a interpretação dos silogismos aristotélicos, e
apontou aquelas partes da Álgebra que estão abertas a uma interpretação não
aritmética ([Bri79a], volume XI). Pela primeira vez se expôs de uma maneira
clara o princípio do procedimento formal. Leibniz tornou-se assim o grande
precursor da Lógica Matemática.
Talvez se pudesse perguntar como é
possível que muitos apresentem a Lógica Simbólica como fruto do nosso tempo,
enquanto teve sua origem na segunda metade do século XVII. É que, na realidade,
a contribuição de Leibniz ficou substancialmente reduzida a um mero programa,
do qual só executou alguns fragmentos, muito parciais se bem que muito
interessantes também, capazes de nos dar uma idéia de como concebia sua obra.
Nem sequer seus seguidores diretos levaram para a frente a construção do
cálculo lógico mais além de um nível muito rudimentar. Provavelmente a
excessiva magnitude do plano de sua characteritica universaliso tenha seduzido,
afastando Leibniz de objetivos mais modestos porém alcançáveis, como o de construir
o primeiro cálculo lógico autêntico.
Ainda dentro desses primeiros passos
mais concretos em direção à construção de um dispositivo para cálculo
automático, não se pode deixar de falar do ilustre francês Blaise Pascal
(1623-1662), já acima citado, que foi matemático, físico, filósofo e brilhante
escritor de religião, fundador da teoria moderna das probabilidades. Aos 17
anos já publicava ensaios de matemática que impressionaram a comunidadedo seu
tempo. Antecedendo a Leibniz, montou a primeira máquina de cálculo digital para
ajudar nos negócios do pai em 1642. Iria produzir ainda outras 49 máquinas a
partir deste primeiro modelo. Estudos posteriores em geometria, hidrodinâmica,
hidrostática e pressão atmosférica o levaram a inventar a seringa e prensa
hidráulica e descobrir as famosas Leis dePressão de Pascal. Após intensa
experiência mística, entrou em 1654 para o convento dePort-Royal, onde escreveu
pequenos opúsculos místicos. Os últimos anos de sua vida foram dedicados à
pesquisa científica [Wil97].
4.2.2 O problema da notação
O símbolo não é uma mera formalidade, é
a verdadeira essência da álgebra. Sem o símbolo, o objeto é somente uma
percepção humana e reflete todas as fases sob as quais os sentidos humanos o
captam; substituído por um símbolo o objeto torna-se uma completa abstração, um
mero operando sujeito a determinadas operações específicas.
Tobias
Dantzig
Nas ciências, as descobertas que podem
ser compreendidas e assimiladas rapidamente por outros são fonte de progresso
imediato. E na Matemática, o conceito de notação está relacionado com isso.
Basta lembrar os algarismos romanos e pensar na complexidade que envolve, por
exemplo a multiplicação, de MLXXXIV por MMLLLXIX.
Há uma forte analogia entre a história
da Álgebra e a da Aritmética. No caso desta última, os homens esforçaram-se
durante centenas de anos usando uma numeração inadequada, devido à ausência de
um símbolo parao ‘nada’ (zero). Na Álgebra, a ausência de uma notação reduziu-a
a uma coleção de regras fortuitas para a solução de equações numéricas. A descoberta
do zero criou a Aritmética que é hoje ensinada e utilizada, e o mesmo se pode
dizer em relação à notação, queacabou por introduzir uma nova etapa na história
da Álgebra.
As letras liberaram a Álgebra da
dependência do uso de palavras, sujeitas às ambigüidades e diferentes
interpretações a queestá sujeito o discurso de uma linguagem natural
(português, inglês, e outras). Mais ainda:a letra ficou livre dos tabus que a
associavam à palavra. Ela é agora um símbolo cujo significado pode transcender
o objeto simbolizado. O ‘x’ de uma equação tem existência própria, independente
do objeto que represente. Importante também é o fato de se poder operar com
letras e transformar expressões algébricas com literais, mudando um sentença
qualquer para diferentes formas com sentido equivalente. A Álgebra não se torna
somente uma maneira mais econômica de se escrever, mas generaliza
procedimentos. Por exemplo: expressões tais como 2x + 3, 3x – 5, 2x + 8, 4x +7
tinham antes uma individualidade própria, eram fechadas em si mesmas através
das palavras com que eram expressas. Sua resolução dependia de uma apropriada
interpretação e manipulação. Com a notação através de literais é possível
passar de um individual para um coletivo. A forma linear ax+b, a forma
quadrática ax²+bx+csão agora espécies,
‘moldes’ específicos, e graças a isso foi possível o nascimento da teoria geral
das funções que é a base de toda matemática aplicada [Dan54].
A notação de Leibniz usada para o
cálculo contribuiu mais do que a de Newton para a difusão das novas idéias
sobre integrais, na época. Pense-se por um momento como se resolve ax = b.
Imediatamente pode ser dado como resposta que x = b/ae haveria surpresa se
alguém respondesse a = b/x. É que normalmente se usam as últimas letras do
alfabeto para representar as incógnitas e as do começo para representar as
quantidades conhecidas. Mas isso não foi sempre assim, e somente no séculoXVII,
a partir de Viète e com Descartes, tais convenções começaram a ser usadas
[Boy74].
Geralmente tende-se a apreciar o passado
desde o sofisticado posto de observação do tempo atual. É necessário valorizar
e revalorizar este difícil e longo passado de pequenas e grandes descobertas.
Leibniz, em seu esforço no sentido de reduzir as discussões lógicas a uma forma
sistemática que pudesse ser universal, aproximou-se da Lógica Simbólica formal:
símbolos ou ideogramas deveriam ser introduzidos para representar um pequeno
número de conceitos fundamentais necessários ao pensamento. As idéias compostas
deveriam ser formadas a partir desses “alfabetos” do pensamento humano, do
mesmo modo como as fórmulas são desenvolvidas na Matemática [Boy74]. Isso o
levou, entre outras coisas, a pensar em um sistema binário para a Aritmética e
a demonstrar a vantagem de tal sistema sobre o decimal para dispositivos
mecânicos de calcular. A idéia de uma lógica estritamente formal – da
construção de sistemas sem significado smântico, interpretáveis a posteriori –
não tinha surgido. Duzentos anos mais tarde, GeorgeBoole formularia as regras
básicas de um sistema simbólico para a lógica matemática, refinado
posteriormente por outros matemáticos e aplicado à teoria dos conjuntos
([Bri79a], volume III). A álgebra booleanaconstituiu a base para o projeto de
circuitos usados nos computadores eletrônicos digitais.
4.3
A lógica matemática no século XIX
Newton e Leibniz descobriram o princípio
fundamental do cálculo de que uma integração pode ser feita mais facilmente
pela inversão do processo de diferenciação, no cálculo das áreas[RA91]. Em 1673
Gottfried Leibniz, usando uma engrenagem dentada, construiu uma calculadora
capaz de multiplicar, na qual um número era repetido e automaticamente somado a
um acumulador.
A passagem do século XVIII para o
séculoXIX marca o início de um novo tempo na História da matemática, e, mais do
que qualquer período precedente, mereceu ser conhecido como a sua “Idade
áurea”, e que afetará diretamente a evolução em direção ao surgimento e
fundamentação da Ciência da Computação. O que se acrescentou ao corpo da
Matemática durante esses cem anos, supera de longe tanto em quantidade como em
qualidade a produção total combinada de todas as épocas precedentes. Com uma
possível exceção do período conhecido como “Idade heróica”, na Grécia antiga,
foi uma das mais revolucionárias etapas do desenvolvimento dessa ciência,
e,conseqüentemente, também da Computação.
Será particularmente objeto de estudo a
evolução da Lógica Simbólica −ou Lógica Matemática − que teve Leibniz como
predecessor distante. A partir de meados do século XIX, a lógica formal se
elabora como um cálculo algébrico, adotando um simbolismo peculiar para as
diversas operações lógicas. Graças a esse novo método, puderam-se construir grandes
sistemas axiomáticos de lógica, de maneira parecida com a matemática, com os
quais sepodem efetuar com rapidez e simplicidade raciocínios que a mente humana
não consegue espontaneamente.
A Lógica Simbólica −Lógica Matemática a
partir daqui −, tem o mesmo objeto que a lógica formal tradicional: estudar e
fazer explícitas as formas de inferência, deixando de lado − por abstração − o
conteúdo de verdades que estas formas possam transmitir [San82]. Não se trata
aqui de estudar Lógica, mas de chamara atenção para a perspectiva que se estava
abrindo com o cálculo simbólico: a automatização de algumas operações do
pensamento. A Máquina de Turing, como será visto, conceito abstrato que
efetivamente deu início à era dos computadores, baseou-se no princípio de que a
simples aplicação de regras permite passar mecanicamente de uns símbolos a
outros, sistema lógico que foi inaugurado pelo matemático George Boole.
Entretanto a lógica booleana estava
limitada ao raciocínio proposicional, e somente mais tarde, com o
desenvolvimento dos quantificadores, a lógica formal estava pronta para ser
aplicada ao raciocínio matemático em geral.Os primeiros sistemas foram
desenvolvidos por F.L.G. Frege e G. Peano. Ao lado destes, será necessário
citar George Cantor (1829 - 1920), matemático alemão que abriu um novo campo
dentro do mundo da análise, nascida com Newton e Leibniz, com sua teoria sobre
conjuntos infinitos [Bel37].
No início do século XX a Lógica
Simbólica se organizará com mais autonomia em relação à matemática e se
elaborará em sistemasaxiomáticos desenvolvidos, que se colocam em alguns casos
como fundamento da própriamatemática e que prepararão o surgimento do
computador.
4.3.1 Boole e os fundamentos da Lógica Matemática e
da Computação
O inglês George Boole (1815 - 1864) é
considerado o fundador da Lógica Simbólica ([Bri79a], volume III). Ele
desenvolveu com sucesso o primeiro
sistema formal para raciocínio lógico. Mais ainda, Boole foi o primeiro a
enfatizar a possibilidade de se aplicar o cálculo formal a diferentes
situações, e fazer operações com regras formais, desconsiderando noções
primitivas.
Sem Boole, que era um pobre professor
autodidata em Matemática, o caminho pelo qual se ligou a Lógica à Matemática
talvez demorasse muito a ser construído. Com relação à Computação, se a Máquina
Analítica de Babbage (ver capítulo sobre a Pré-História Tecnológica) foi apenas
uma tentativa bem inspirada (que teve pouco efeito sobre os futuros
construtores do computador), sem a álgebra booleana, no entanto, a tecnologia
computacional não teria progredido com facilidade até a velocidade da
eletrônica.
Durante quase mais de dois mil anos, a
lógica formal dos gregos, conhecida pela sua formulação silogística, foi
universalmente considerada como completa e incapaz de sofrer uma melhora
essencial. Mais do que isso, a lógica aristotélica parecia estar destinada a
ficar nas fronteiras da metafísica, já que somente se tratava, a grosso modo,
de uma manipulação de palavras. Não se havia ainda dado o salto para um
simbolismo efetivo, embora Leibniz já tivesse aberto o caminho com suas idéias
sobre o “alfabeto do pensamento”.
Foi Boole, em sua obra The Mathematical
Analysis of Logic (1847), quem forneceu uma idéia clara de formalismo,
desenvolvendo-a de modo exemplar. Ele percebeu que poderia ser construída uma
álgebra de objetos que não fossem números, no sentido vulgar, e que tal
álgebra, sob a forma de um cálculo abstrato, seria capaz de ter várias
interpretações [Kne68].
O que chamou a atenção na obra foi a
clara descrição do que seria a essência do cálculo, isto é, o formalismo,
procedimento, conforme descreveu, “cuja validade não depende da interpretação
dos símbolos mas sim da exclusiva combinação dos mesmos” [Boc66]. Ele concebeu
a lógica como uma construção formal à qual se busca posteriormente uma
interpretação.
Boole criou o primeiro sistema bem
sucedido para o raciocínio lógico, tendo sido pioneiro ao enfatizar a
possibilidade de se aplicaro cálculo formal em diferentes situações e fazer
cálculos de acordo com regras formais, desconsiderando as interpretações dos
símbolos usados. Através de símbolos e operações específicas, as proposições
lógicas poderiam ser reduzidas a equações e as equações silogísticas poderiam
ser computadas de acordo com as regras da álgebra ordinária. Pela aplicação de
operações matemáticas puras e contando com o conhecimento da álgebra booleana é
possível tirar qualquer conclusão que esteja contida logicamente em qualquer
conjunto de premissas específicas.
De especial interesse para a Computação,
sua idéia de um sistema matemático baseado em duas quantidades, o ‘Universo’ e
o ‘Nada’, representados por ‘1’ e ‘0’, o levou a inventar um sistema de dois
estados para a quantificação lógica. Mais tarde os construtores do primeiro
computador entenderam que um sistema com somente dois valores pode compor mecanismos
para perfazer cálculos.
George Boole estava convencido deque sua
álgebra não somente tinha demonstrado a equivalência entre Matemática e Lógica,
como representava a sistematização do pensamento humano. Na verdade a ciência,
depois dele, principalmente com Husserl, pai da Fenomenologia, demonstrará que
a razão humana é mais complicada e ambígua, difícil de ser conceituada e mais
poderosa que a lógica formal, mas do ponto de vista da Matemática e da
Computação, a álgebra booleana foi importante, e só os anos fizeram ver, pois a
lógica até Leibniz já tinha compreendido no século XVII que há alguma
semelhança entre a disjunção e conjunção de conceitos e a adição e
multiplicação de números mas foi difícil para ele formular precisamente em que
consistia essa semelhança e como usá-la depois como base para um cálculo lógico
[Kne68].
A base do hardwaresobre a qual são
construídos todos os computadores digitais é formada de dispositivos
eletrônicos diminutos denominados portas lógicas. É um circuito digital no qual
somente dois valores lógicos estão presentes. Para se descrever os circuitos
que podem ser construídos pela combinação dessas portas lógicas é necessária a
álgebra booleana. então era incompleta e não explicava muitosprincípios de
dedução empregados em raciocínios matemáticos elementares.
Mas, a lógica booleana estava limitada
ao raciocínio proposicional, e somente após o desenvolvimento de
quantificadores, introduzidospor Peirce, é que a lógica formal pôde ser
aplicada ao raciocínio matemático geral. Além de Peirce, também Schröeder e
Jevons aperfeiçoaram e superaram algumas restriçõesdo sistema booleano:
disjunção exclusiva, emprego da letra vpara exprimir proposições
existenciais,admissão de coeficientes numéricos além do 0 e 1 e o emprego do
sinal de divisão.O resultado mais importante, no entanto, foi a apresentação do
cálculo de uma forma extremamente axiomatizada.
4.3.2 A importância de Frege e Peano
Frege (1848 - 1925) e Peano (1858 -
1932) trabalharam para fornecer bases mais sólidas à álgebra e generalizar o
raciocínio matemático [Har96]. Gottlob Frege ocupa um lugar de destaque dentro
da Lógica. Embora não tão conhecido em seu tempo e bastante incompreendido,
deve-se ressaltar que ainda hoje torna-se difícil descrever a quantidade de
conceitos e inovações, muitos revolucionários, que elaborou de forma exemplar
pela sua sistematização e clareza. Muitos autores comparam seu
Begriffsschriftaos Primeiros Analíticos de Aristóteles, pelos pontos de vista
totalmente geniais.
Frege foi o primeiro a formularcom
precisão a diferença entre variávele constante, assim como o conceito de função
lógica, a idéia de uma função de vários argumentose o conceito de
quantificador. A ele se deve uma conceituação muito mais exata da teoria
aristotélica sobre sistema axiomático, assim como uma clara distinção entre lei e regra, linguagem e
metalinguagem. Ele é autor da teoria da descrição e quem elaborou
sistematicamente o conceito de valor. Mas isto não é tudo, pois todas estas
coisas são apenas produtos de um empreendimento muito maior e fundamental, queo
inspirou desde suas primeiras pesquisas: uma investigação das características
daquilo que o homem diz quando transmite informação por meio de juízos.
Na verdade o que Frege chamou de Lógica
– assim como seus contemporâneos Russell e Wittgenstein – não é o que hoje é
chamado Lógica, fruto do formalismo e da teoria dos conjuntos que acabaram por
predominarentre os matemáticos, mas sim o que se denomina semântica, uma
disciplina sobre o conteúdo, natureza desse conteúdo e estrutura. Ele gastou
considerável esforço na separação de suas concepções lógicas daquelas
concepções dos 'lógicos computacionais' como Boole, Jevons e Schröeder. Estes
estavam, como já foi dito, empenhados no desenvolvimento de um cálculo do
raciocínio como Leibniz propusera, mas Frege queria algo mais ambicioso:
projetar uma língua characteristica. Dizia ele que uma das tarefas da filosofia
era romper o domínio da palavra sobre o espírito humano. Frege procurou usar um
sistema simbólico, que até então somente se pensava para a matemática, também
para a filosofia: um simbolismo que retratasse o que se pode dizer sobre as
coisas. Ele buscava algo que não somente descrevesse ou fosse referido a coisas
pensadas, mas o próprio pensar [Cof91].
Os lógicos tradicionais estavam
basicamente interessados na solução de problemas tradicionais de lógica, como
por exemplo a validade. O objetivo de Frege foi mais além: entrou no campo da
semântica, do conteúdo, do significado, onde encontrou o fundamento último da
inferência, da validade, etc. Frege acabou derivando para uma filosofia da
lógica e da matemática e influenciou diretamente a Russell, David Hilbert,
Alonzo Church e Carnap. Destes, Hilbert e Church têm um papel decisivona
História conceitual da Ciência da Computação.
Frege desejava provar que não somente o
raciocínio usado na matemática, mas também os princípios subjacentes – ou seja,
toda a matemática – são pura lógica. Porém ele expressou suas buscas e
resultados – pelos quaisacabou sendo considerado um dos pais da Lógica moderna,
de uma forma excessivamente filosófica, em uma notação matemática não
convencional. O mérito maior dele foi elaborar uma concepção lógica mais
abrangente do que a Lógica de Aristóteles. Em um procedimento que lembra a
“characteristica universalis”, Frege construiu um sistema especial de
símbolospara desenvolver a lógica de maneira exata e foi muito além das
proposições e dos argumentos. Em sua grandes obras, Begriffsschrift, eine der
arithmetischen nachgebildete Formelsprache des reinen Denkens(Ideografia, uma
linguagem formalizada do pensamento puro construída de modo aritmético) e
Grundgesitze der Arithmetik.
Begriffsschriflich abgeleitet(Leis
Fundamentais da Aritmética, Ideograficamente Deduzidas), está contida de modo
explícito e plenamente caracterizado uma série de conceitos – conectivos,
função, função proposicional, quantificadores, etc. – que seriam vitais para a
Lógica Matemática a partir de então [Gom97].
Foi através do contato com a obra de
Frege que Bertrand Russell (1872 - 1970) procurou levar avante a idéia de
construir todaa matemática sobre bases lógicas, convencido de que ambas são
idênticas. Os postulados fregianos, adotados primeiramente por Peano, foram
incorporados por Russell, que estendeu as teses logicistas de Frege à Geometria
e às disciplinas matemáticas em geral.
Peano tinha objetivo semelhante a Frege,
mas mais realista. Ele desenvolveu uma notação formal para raciocínio
matemático que procurasse conter não só a lógica matemática, mas todos os ramos
mais importantes dela. O simbolismo de Peano e seus axiomas – dos quais
dependem muitas construções rigorosas naálgebra e na análise – “representam a
mais notável tentativa do século XIX de reduzir a aritmética comum, e portanto
a maior parte da matemática, a um puro simbolismo formal. Aqui o método
postulacional atingiu novo nível de precisão, sem ambigüidade de sentido, sem
hipóteses ocultas” [Boy74]. Para maiores detalhes, ver anexo sobre A Aritmética
de Peano.
Como já foi dito, a idéia lançada por
Leibniz de uma linguagemfilosófica que seria um simbolismo através do qual o
homem estaria em condições de expressar seus pensamentos com plena clareza e
dirimir dúvidas através de simples cálculos. Sobre número, dedução, inferência,
proposições, premissas, etc. Já Hilbert procurou colocar em prática a teoria da
demonstração de Frege, e pode-se ver nessas palavras deste as idéias
implementadas posteriormente no programa hilbertiano: “a inferência procede,
pois, em meu sistema de escrita conceitual (Begriffsschrift), seguindo uma
espécie de cálculo. Não me refiro a este em sentido estrito, como se fosse um
algoritmo que nele predominasse, (...), mas no sentido de queexiste um
algoritmo total, quer dizer, um conjunto de regras que resolvem a passagem
deuma proposição ou de duas, a outra nova, de tal forma que nada se dá que não
esteja de acordo com estas regras. Minha meta é, pois, uma ininterrupta
exigência de precisão no processo dedemonstração, e a máxima exatidão lógica,
ao mesmo tempo que clareza e brevidade” [Boc66].
Pode-se notar a partir desse momento uma
guinada no conceito de Lógica: os objetos da investigação lógica já não são
mais as próprias fórmulas, mas as regras de operação pelas quais se formam e se
deduzem.
4.4
O desenvolvimento da Lógica Matemática
Uma das metas dos matemáticos no final
do século XIX foi a de obter um rigor conceitualdas noções do cálculo
infinitesimal (limite,continuidade, infinito matemático, etc.). Tal programa foi
chamado de “aritmetização daanálise”, isto é, a busca da redução dos conceitos
fundamentais da análise (a matemática que tem como base a teoria dos números
reais) aos conceitos da aritmética (a matemática que tem como base a teoria dos
número inteiros positivos, isto é, dos números naturais e, por extensão, dos
números racionais).
Por exemplo, ao invés de se tomar o
número imaginário 1 − como uma entidade
um tanto misteriosa, pode-se defini-lo como um par ordenado de números inteiros
(0,1), sobre o qual se realizam certas operações de “adição” e “multiplicação”.
Analogamente, o número irracional 2se
definia numa certa classe de números irracionais, cujo quadrado é menor do que
2. Dado que a Geometria podia ser reduzida à Análise (Geometria Analítica), a
Aritmética vinha a se configurar como a base natural de todo o edifício
matemático. O ponto culminante deste processo foram os axiomas de Peano (1899),
que fundamentaram toda a Aritmética elementar posterior. Ao mesmo tempo,
matemáticos como Frege,Cantor e Russell, não convencidos da “naturalidade” da
base constituída pela aritmética. Eles procuravam conduzir a própria aritmética
a uma base mais profunda, reduzindo o conceito de número natural ao conceito
lógico de classe, ou, para recorrer a Cantor, definir número em termos de
conjunto. Deste modo, a lógica das classes apresentava-se comoa teoria mais
adequada para a investigação sobre os fundamentos da matemática. O esforço dos
matemáticos foi o de dar à álgebra uma estrutura lógica, procurando caracterizar
a matemática não tanto pelo seu conteúdo quanto pela sua forma.
Bochenski [Boc66], falando da história
da Lógica Matemática, diz que a partir de 1904, com Hilbert, inicia-se um novo
período dessa ciência então emergente, que se caracteriza pela aparição da
Metalógica (Hilbert, Löwenheim e Scholem) e, a partir de 1930, por uma
sistematização formalista dessa mesma Metalógica. Iniciaram-se discussões sobre
o valor e os limites da axiomatização, o nexo entre Lógica e Matemática, o
problema da verdade (Hilbert, Gödel, Tarski).
A Metalógica, em sua vertente
sintáticaocupa-se das propriedades externas dos cálculos, como por exemplo, a
consistência, a completude, a decidibilidade dos sistemas axiomáticos e a
independência dos axiomas. Hilbert, Gödel e Church são autores nesse campo. Em
sua parte semântica, a Metalógica dirige-se ao significado dos símbolos, dos
cálculos com relação a um determinado mundo de objetos. Tarski, Carnap e Quino,
entre outros se interessaram por estas questões.
Apareceram também novos sistemas
lógicos: as lógicas naturais, de Gentzen e Jaskowski, lógica polivalente de
Post e Lukasiewicz, e a lógica intuicionista de Heytings. Complementando essas
idéias cabe destacaralguns sistemas originais de outros matemáticos como
Schönfinkel (1924), Curry (1930), Kleene (1934), Rosser (1935) e o já citado
Alonzo Church (1941). Deve-se lembrar que quase todos estes últimos, junto com
o logicista inglês Alan M. Turing, acabaram por definir, antes mesmo de existir
o computador propriamente, a natureza da computação, e as implicações e limites
do pensamento humano através de uma máquina.
4.5
A crise dos fundamentos e as tentativas de superação
Os matemáticos são conhecidos por serem
exigentes na hora de pedir uma prova absoluta antes de aceitarem qualquer
afirmação. Esta reputação é claramente mostrada em uma anedota: Um astrônomo,
um físico e um matemático estavam passando férias na Escócia. Olhando pela
janela do trem eles avistaram uma ovelha preta no meio de um campo. “Que
interessante”, observou o astrônomo, “na Escócia todas as ovelhas são pretas.”
Ao que o físico respondeu: “Não, nada disso!. Algumas ovelhas escocesas são
pretas.” O matemático olhou para cima em desespero e disse: “Na Escócia existe
pelo menos um campo, contendo pelo menos uma ovelha e pelo menos um lado dela é
preto.”(Ian Stuart, Conceitos de matemática moderna, in [Sin99])
Quando a própria Lógica Formal reflete
sobre seus conteúdos. E o matemático que se especializa no estudo da lógica
matemática é ainda mais rigoroso do que o matemático comum. Os matemáticos
lógicos começaram a questionar idéias que os outros matemáticos consideravam
certas há séculos. Por exempo, a lei da tricotomiadeclara que cada número é ou
negativo, ou positivo ou então zero. Ninguém se preocupara em provar isso que
parece óbvio, mas os lógicos perceberam que se não o fosse, ela poderia ser
falsa, e todo o edifício matemático que dependia dessa lei desmoronaria. Apesar
das disciplinas dedutivas terem atingidoum alto grau de perfeição lógica,
algumas dúvidas começaram a abalar a confiança dos matemáticos: o surgimento,
por volta de 1900, de inúmeros paradoxos ou antinomias, especialmente na teoria
dos conjuntos. O aparecimento de tais contradições mostrava que havia algum
defeito nos métodos. Será que se poderia ter certeza de que em se usando os
axiomas de um sistema rigidamente lógico – o grande sonho de tantos matemáticos
do início do século XX de reduzir a matemática e o conhecimento à lógica –,
nunca se chegaria a uma contradição, dentro dos axiomas do sistema? Estava
iminente, nos fins do século XIX, uma inevitável colisão entre matemática e
filosofia. Alguns vagos conceitos metafísicos associados com o pensamento
humano já tinham chamado a atenção de matemáticos das duas primeiras décadas do
século XX, que passaram a procurar a verdadeira natureza do raciocínio dentro
da ciência matemática. O que é um procedimento correto, qual a relação entre
verdade e demonstração, é possível fornecer uma prova para todos os enunciados
matemáticos verdadeiros? E o problema das ambigüidades, já que a matemática
sempre foi feita através de uma linguagem natural?
Desde os antigos gregos a matemática vem
acumulando mais teoremas e verdades, e, embora a maioria deles tenha sido
rigorosamente provada, os matemáticos temiam que alguns casos tivessem sido
aceitos sem um exame mais adequado. Os lógicos então decidiram provar todos os
teoremas, a partir de princípios fundamentais. No entanto, cada verdade tinha
sido deduzida de outras verdades. E
estas, por sua vez, de outras ainda mais fundamentais e assim por
diante. Os lógicos acabaram por chegar aos axiomas da matemática, essas
declarações essenciais tão fundamentaisque não podiam ser provadas, pois são
auto-evidentes. O desafio para os lógicos era reconstruir toda a matemática a
partir desses axiomas.
Uma legião de lógicos participou deste
processo, lento e doloroso, usando somente um número mínimo de axiomas. A idéia
era consolidar, através do raciocínio lógico e rigoroso, o que já se pensava
ser conhecido. Este quadro estimulou a criatividade matemática.
A
lei da tricotomia foi demonstrada no final do século XIX.
O paradoxo de Russel, o paradoxo de
Cantor, o paradoxo de Burati Forti, o paradoxo de Richard, etc. Para
exemplificar, vamos ao de Cantor, descoberto por ele próprio em 1899: seS é o
conjunto de todos os conjuntos, então seus subconjuntos devem estar também
entre os seus elementos. Conseqüentemente, o número cardinal de S não pode ser
menor do que o do conjunto dos subconjuntos de S. Mas isso, pelo teorema do
próprio Cantor, deveria ocorrer!
Basta ler as palavras do matemático
Sylvester em sua controvérsia com Huxley. Dizia que a matemática se origina
“diretamente das forças e atividades inerentes da mente humana, e da
introspecção continuamente renovada daquele mundo interior do pensamento em que
os fenômenos são tão variados e exigem atenção tão grande quanto os do mundo
físico exterior”. Para ele, a matemática era “revelar as leis da inteligência
humana”, assim como a física revela as leis do mundo dos sentidos [Cos77].
A lei comutativa da adição, por exemplo:
para quaisquer números a e b, a + b = b + a. Na tentativa de se resolverem os
paradoxos surgiram três grandes escolas da lógica: a Logicista, a Intuicionista
e a Formalista. A escola logicista rapidamente ficou exposta a fortes críticas.
Frege, Peano e Russell, devido ao seu platonismo, acreditavam em um mundo
objetivo, existente por si mesmo, de entes e relações matemáticas que o
pesquisador deve descobrir e não inventar. Bertrand Russell tinha objetivos
ainda maiores: utilizar o instrumental da lógica como ponto de partida do
pensamento filosófico, através da geração de uma linguagem perfeita. Mas a
matemática, enquanto perquirição pura, independe teoricamente dessas
aplicações, bastando ver as pesquisas atuais. Deve-se, no entanto, destacar o
mérito dessa escola de incrementar grandemente o progresso da logística e
confirmar a união íntima entre matemática e lógica.
O programa intuicionista sofreu
tambémfortes críticas, principalmente a de desfigurar a matemática, tornando-a
algo subjetivo e praticamente impossível. O próprio modo de se provar a não-contradição
de uma teoria matemática, buscando um ‘modelo’ dos axiomas dessa teoria dentro
de outra teoria já existente (e que era considerada coerente) mostrou-se pouco
confiável: como dar a certeza da não-contraditoriedade dessa outra teoria? A
maior parte dos matemáticos dos nossos dias afastou-se dessa linha de
pensamento. Positivamente falando, sua dura crítica à matemática tradicional
obrigou os especialistas nos fundamentos a desenvolverem novos métodos para
reabilitar a teoria clássica. A escola formalista progrediu bastante através
das polêmicas com os intuicionistas [Cos77].
4.5.1 A figura de David Hilbert
Para David Hilbert (1862 - 1943) e
outros, o problema de estabelecer fundamentos rigorosos era o grande desafio ao
empreendimento de tantos, que pretendiam reduzir todas as leis científicas a
equações matemáticas. Ele acreditava que tudo na matemática poderia e deveria
ser provado a partir dos axiomas básicos. O resultado disso levaria a
demonstrar conclusivamente, segundo ele, os dois elementos mais importantes do
sistema matemático.
Em primeiro lugar a matemática deveria,
pelo menos em teoria, ser capaz de responder a cada pergunta individual – este
é o mesmo espírito de completude que no passado exigira a invenção de números
novos, como os negativos e os imaginários. Em segundo lugar, deveria ficar
livre de inconsistências – ou seja, tendo-se mostrado que uma declaração é
verdadeira por um método, não deveria ser possível mostrar que ela é falsa por
outro método. Hilbert estava convencido de que, tomando apenas alguns axiomas,
seria possível responder a qualquer pergunta matemática imaginária, sem medo de
contradição. O esforço para
A tese logiscista compõe-se de duas
partes: 1)Toda idéia matemática pode ser definida por intermédio de conectivos
lógicos (classe ou conjunto, implicação, etc.); 2)Todo enunciado
matematicamente verdadeiro pode ser demonstrado a partir de princípios lógicos
(“não contradição”, “terceiro excluído”, etc.), mediante raciocínios puramente
matemáticos.
Para Brower, fundador desta escola – na
verdade um radicalizador das teses de Kronecker que não aceitava a teoria dos
conjuntos – o saber matemático escapa a toda e qualquer caracterização
simbólica e se forma em etapas sucessivas que não podem ser conhecidas de
antemão: a atividade do intelecto cria e dá forma a entes matemáticos,
aproximando-se do apriorismo temporal de Kant.
Os logicistas tiveram de apelar a
princípios extra-lógicos – axioma de Zermelo, axioma do infinito – que ainda
hoje encontram-se sujeitos a calorosos debates e fortes reparos. Caminho
praticado por Hilbert no seu famoso trabalho Fundamentos da Geometria (1899),
onde axiomatizou de modo rigoroso a geometria euclidiana. Reconstruir
logicamente o conhecimento matemático acabou sendo liderado por essa figura,
talvez a mais eminente da época.
No dia 8 de agosto de 1900, Hilbert deu
uma palestra histórica no Congresso Internacional de Matemática em Paris. Ele
apresentou 23 problemas não-resolvidos da matemática que acreditava serem de
imediata importância. Alguns problemas relacionavam-se com áreas mais gerais da
matemática, mas a maioria deles estava ligada aos fundamentos lógicos dessa
ciência. Tais problemas deveriam focalizar a atenção do mundo matemático e
fornecer um programa de pesquisas. Hilbert queria unir a comunidade para
ajudá-lo a realizar sua visão de um sistema matemático livre de dúvidas ou
inconsistências[Sin99]. Todos esses estudos denominaram-se Metamatemática ou
Metalógica, pela conectividade das duas.
Ele propôs-se a demonstrar a coerência
da aritmética, para depois estender tal coerência aos âmbitos dos demais
sistemas. Apostou na possibilidade da criação de uma linguagem puramente
sintática, sem significado, a partir da qual se poderia falar a respeito da
verdade ou falsidade dos enunciados. Tal linguagem foi e é chamada de sistema
formal, e está resumida no anexo A concepção formalista da matemática. Isto,
que fazia parte do centro da doutrina formalista, mais tarde estimularia Turing
a fazer descobertas importantes sobre as capacidades das máquinas. Registre-se
também que John von Neumann, a quem muitos atribuem a construção do primeiro
computador, era um aluno de Hilbert e um dos principais teóricos da escola
formalista.
No início do século XX a matemática
estava reduzida a 3 grandes sistemas axiomáticos: aritmética, análise e
conjunto, sendo o mais fundamental o primeiro. Era natural que ele escolhesse
esse sistema. John von Neumann falava 5 línguas e foi um brilhante logicista,
matemático e físico. Além de lhe ser atribuída a invenção do primeiro
computador, ele estava no centro do grupo que criou o conceito de “programa
armazenado”, que potencializou extremamente o poder computacional das máquinas
que então surgiam.
Interessam agora dois problemas da
referida lista de 23. O segundo, relacionado com a confiabilidade do raciocínio
matemático (isto é, se ao seguir as regras de determinado raciocínio matemático
não se chegaria a contradições), e, ligado a ele,o problema de número dez. Este
era de enunciado bastante simples: descreva um algoritmo que determine se uma
dada equação diofantina do tipo P(u1,u2,...,un) = 0, onde P é um polinômio com
coeficientes inteiros, tem solução dentro do conjuntodos inteiros. É o famoso
problema da decidibilidade, o Entscheidungsproblem. Consistia em indagar se
existe um procedimento mecânico efetivo para determinar se todos os enunciados
matemáticosverdadeiros poderiam ser ou não provados, isto é, se eles poderiam
ser deduzidos a partir de um dado conjunto de premissas. Para entender um pouco
mais sobre decisão na matemática, ver o anexo O problema da decisão na
Matemática.
Também a questão da consistência, como jáfoi
dito, era decisiva para ele, pois é uma condição necessária para o sistema
axiomático do tipo que ele tinha em mente. Aristóteles já tinha mostrado que se
um sistema é inconsistente, qualquer afirmação poderia ser provada como falsa
ou verdadeira. Neste caso não seria possível haver um fundamento sólido. A
simplicidade do problema de Hilbert é apenas aparente, e somente após 70 anos
de esforços foi encontrada a solução, por Matijasevic, um matemático russo de
apenas 22 anos na época. É uma solução bastante complexa, dependendo tanto de
resultados da Teoria do Números, conhecidos há muitíssimos anos, como do
trabalho anterior de três americanos, Martin Davis, Julia Robinson e Hilary
Putnan, que por sua vez baseia-se em certos resultados fundamentais sobre
lógica e algoritmos descobertos na década de 30 por Kurt Gödel, Alan Turing,
Emil Post, Alonso Church e Stephen Kleene. A resposta a esse problema de
Hilbert é: tal algoritmo não existe: o décimo problema é indecidível. para
qualquer tipo de conhecimento, matemático ou não. Anos mais tarde, em 1928, no
Congresso Internacional de Matemáticos, realizado em Bolonha, Itália, Hilbert
lançou um novo desafio, que na verdade somente enfatizava aspectos do segundo e
do décimo problema já descritos. Hilbert queria saber se é possível provar toda
assertiva matemática verdadeira.
Estava buscando algo como uma “máquina
de gerar enunciados matemáticos verdadeiros”: uma vez alimentada com um
enunciado matemático, poderia dizer se o enunciado é falso ou verdadeiro [Cas97].
É um problema que está relacionado com o citado projeto hilbertiano da busca de
um sistema formal completoe consistente.
Ao mesmo tempo, em 1927, com 22 anos,
von Neumann publicou 5 artigos que atingiram fortemente o mundo acadêmico. Três
deles consistiam em críticas à física quântica, um outro estabelecia um novo
campo de pesquisas chamado Teoria dos Jogos, e, finalmente, o que mais impactou
o desenvolvimento da Computação: era o estudo do relacionamento entre sistemas
formais lógicos e os limites damatemática. Von Neumann demonstrou a necessidade
de se provar a consistência da matemática, um passo importante e crítico tendo
em vista o estabelecimento das bases teóricas da Computação (embora ninguém
tivesse esse horizonte por enquanto).
Já foi citado, no capítulo sobre o
Desenvolvimento da Lógica Matemática,o desafio dos matemáticos do início do
século de aritmetizar a análise. Eles estavam de acordo, no que diz respeito às
proposições geométricas e outrostipos de afirmações matemáticas, em que
poderiam ser reformuladas e reduzidas a afirmações sobre números. Logo, o
problema da consistência da matemática estava reduzido à determinação da
consistência da aritmética. Hilbert estava interessado em dar uma teoria da
aritmética, isto é, um sistema formal que fosse finitisticamente descritível,
consistente, completo e suficientemente poderoso para descrever todas as
afirmações que possam ser feitas sobre números naturais. O que Hilbert queria
em 1928 era que, para uma determinada afirmação matemática, por exemplo, “a
soma de dois números ímpares é sempre um número par”, houvesse um procedimento
que, após um número finito de passos, parasse e indicasse seaquela afirmação
poderia ou não ser provada em determinado sistema formal, suficientemente
poderoso para abranger a aritmética ordinária [Cas97]. Isto está diretamente
relacionado com o trabalho de Gödel e Alan Turing.
Pode-se afirmar que, em geral, a
lógicamatemática prestou naqueles tempos maior atenção à linguagem científica,
já que seu projeto era o da elaboração de uma linguagem lógica de grande
precisão, que fosse boa para tornar transparentes as estruturas lógicas de
teorias científicas. Tal projeto encontrou seus limites, tanto na ordem
sintática como na ordem semântica (por exemplo, com os célebres teoremas de
limitação formal). Este fenômeno levou a uma maior valorização da linguagem
ordinária, que, apesar de suas flutuações e imprecisões, encerram uma riqueza
lógica que os cálculos formais não conseguem recolher de todo. Dentro da
própria matemática – como se verá mais adiante com Gödel – há verdades que não
podem ser demonstradas mediante uma dedução formal, mas que podem ser
demonstradas – o teorema da incompletude de Gödel é uma prova disso – mediante
um raciocínio metamatemático informal. A partir desse propósito de construção
de uma
O termo finitístico é usado por vários
autores. Hilbert quis dizer que tal sistema deveria ser construído com um
número finito de axiomas e regras e toda prova dentro do sistema deveria ter um
número finito de passos. Na verdade, tanto a lógica matemática emsentido
estrito como os estudos de semântica e filosofia da linguagem depararam-se com problemas
filosóficos que não se resolvem somente dentro de uma perspectivalógica. Há
questões de fundo da lógica matemática que pertencem já a uma filosofia da
matemática.
Todos esses desafios abriram uma porta
lateral para a Computação e deram origem a um novo e decisivo capítulo na sua
História. Da tentativa de resolvê-los ocorreu uma profunda revolução conceitual
na Matemática – o Teorema de Gödel – e surgiu o fundamento básico de todo o
estudo e desenvolvimento da Computação posterior: a Máquina de Turing.
4.6
Kurt Gödel: muito além da lógica
Kurt Gödel (1906 – 1978) não desfruta do
mesmo prestígio de outros cientistas contemporâneos seus, como Albert Einstein.
Possivelmente contribua para isto o fato de que suas descobertas se produziram
em um campo, o da lógica matemática, próprio das ciências formais, e não em
algum ramo da ciência que tenha influenciado diretamente no conjunto da
sociedade.
No entanto, suas grandes contribuições à
lógicaformal se estendem – segundo seus biógrafos – muito além do seu estrito
âmbito formal e abordam questões tão vastas e espinhosas como a natureza da
verdade, o conhecimento e a certeza. Pode-se afirmar que, junto com a teoria da
relatividade de Einstein e o princípio da incerteza de Heisenberg, o teorema da
incompletude de Gödel despertou a ciência moderna de seu “sonho dogmático”.
4.6.1 Um pouco de história
Nascido em Brünn (hoje Brno, na
República Tcheca), Kurt Friedrich Gödel (ao naturalizar-se norte-americano, em
1948, ele deixou o segundo nome) instala-se em Viena em 1924. Logo se apaixona
pela cidade, por sua vida universitária e atmosfera intelectual. Requisita a
nacionalidade austríaca e, em 26 de fevereiro de 1929, três dias depois da
morte de seu pai, deixa oficialmente de ser tcheco. Apesar doluto, termina sua
tese de doutorado, Sobre a completude do cálculo lógico. Nessa monografia
datilografada de apenas 30 páginas, o jovem matemático, então com 23 anos,
expõe diversosresultados extremamente importantes para a lógica. Deduz que todo
sistema de axiomas deprimeira ordem não-contraditório possui um modelo. Isto é,
que existe um conjunto de objetos que verificam os axiomas do sistema.
Existem duas definições de completude:
1) Um sistema de axiomas é completo
(como uma caixa de ferramentas bem provida, que permite realizar todos os
trabalhos necessários) quando todos os teoremas verdadeiros da teoria em pauta
(por exemplo, a aritmética) podem ser deduzidos a partir dele. Esta é a
completude semântica. Parte do texto que se segue, a partir do item Um pouco de
história vem de maravilhoso artigo publicado na revista Scientific American
Brasil, edição Gênios da Ciência Matemática: A vanguarda matemática e os
limites da razão
2) Um sistema de axiomas é completo
(comouma caixa de ferramentas à qual não se pode acrescentar nada) quando toda
tentativa de lhe adicionar um novo axioma (independente dos anteriores) resulta
em contradição. Esta é a completude sintática. Gödel usa o termo completude no
primeiro sentido e mostra que toda fórmula lógica verdadeira do cálculo de
predicados de primeira ordem é demonstrável a partir dos axiomas clássicos
desse mesmo cálculo. Para ele, esse resultado — constitui um complemento
teórico ao método usual de demonstração de não-contradição”. O “método usual”
consiste em construir um modelo, ou seja, oferecer uma interpretação semântica
(por exemplo, geométrica) do sistema considerado: se a teoria admite um modelo,
então é não-contraditória. Em sua tese, o jovem demonstra a recíproca de tal
propriedade: todo sistema de axiomas de primeira ordem não contraditório admite
um modelo. Esse resultado parece confirmar a esperança formalista de David
Hilbert, de construir uma teoria rigorosa capaz de descrever toda a matemática.
Mas Gödel opta pela prudência. Entusiasmado, seu orientador, Hans Hahn,
encoraja-o a publicar uma versão presumida do trabalho. O artigo Sobre a
completude dos axiomas do cálculo lógico de funções aparece, em 1930, no
periódico Monatshefte für Mathematik und Physik. Detalhe interessante: no
artigo, Gödel não retoma nenhum elemento da introdução de sua tese, na qual
havia relacionado seu resultado às discussões acerca dos fundamentos da
matemática.
Eis aqui, nas palavras do próprio Gódel,
um resumo do artigo: “Na fundamentação axiomática da lógica, tal como é estabelecida,
por exemplo, nos Principia mathematica, levanta-se a seguinte questão: os
axiomas utilizados são de fato completos, ou seja, suficientes para deles se
deduzir todas as proposições importantes da lógica pela via formal?
Este problema não foi resolvido até
agora senão para as proposições lógicas mais simples, especificamente para
aquelas do cálculo proposicional. A resposta é positiva, e significa que toda
proposição verdadeira (válida em geral) decorre dos axiomas dos Principia
mathematica. O autor mostra como estender esse teorema às fórmulas do cálculo
funcional (cálculo de predicados) de primeira ordem (em que os quantificadores
não operam sobre as funções e predicados)”.
Em sua tese, Gödel ainda toma o partido
de Hilbert, contra o chamado “intuicionismo” de Luitzen Brouwer (1881-1966).
Mas certas idéias do matemático holandês certamente o influenciam. Não sabemos
se ele assistiu às duas conferências que Brouwer proferiu em Viena em março de
1928; porém não há dúvida de que conhecia seu conteúdo, ao menos por meio das
atas às quais teve acesso.
Em outras palavras, busca-se uma
interpretação semântica para o sistema de axiomas. Ex.: certo sistema de
axiomas diz respeito a dois conjuntos M e N cuja natureza, inicialmente, não é
especificada. Esses axiomas são: 1) M e N têm o mesmo número de elementos; 2)
Nenhum elemento de N contém mais de 2 elementos de M; 3) Nenhum elemento de M
está contido em mais de dois elementos de N. Esse sistema é coerente, pois se
pode associar a ele o seguinte modelo geométrico, onde se verifica os três
axiomas (M é o conjunto de vértices do quadrado e N o conjunto de seus lados):
M M
N
N N
N
M M
Como conseqüência, parece-lhe impossível
remediar essa situação “ao submeter, como faz a escola formalista, a linguagem
matemática a um tratamento matemático” e “pela tentativa de exprimi-Ia em uma
linguagem de segunda ordem ou em uma metalinguagem”. O desacordo entre Gödel e
Brouwer acerca do assunto é apenas uma questão de interpretação: enquanto
Brouwer vê como confissão de fraqueza a impossibilidade de a linguagem atingir
precisão absoluta, Gödel, ao contrário, interpreta essa mesma dificuldade como
um indício de que a matemática é inesgotável, e que é normal que ela não se
deixe circunscrever facilmente.
Os apontamentos feitos em 23 de dezembro
de 1929 pelo filósofo Rudolf Carnap, depois de três horas de conversa com Gödel
acerca da matemática e do formalismo, confirmam essa visão: “Toda formalização
damatemática envolve problemas que se podem exprimir e explicitar na linguagem
corrente, mas para os quais não existe expressão apropriada dentro do próprio
formalismo. Segue daí (Brouwer foi citado nesse ponto) que a matemática é
inesgotável: deve-se sempre retomar a seus inícios, para `buscar nova força nas
fontes da intuição'. Não haveria, assim, nenhuma língua characteristíca
uníversalis, nenhuma língua formal para a totalidade da matemática. (...) Nós
dispomos apenas de uma linguagem, mas as sutilezas construídas por nosso
espírito são inesgotáveis, porque se baseiam sempre em alguma nova intuição”.
O caráter inesgotável da matemática
fornecerá a Gödel uma espécie de fio condutor para suas pesquisas ulteriores,
especialmente para o teórema da incompletude. Outro resultado que aparece na
tese de Gödel, mas que adquire plena clareza somente no artigo do Monatshefte,
é o teorema da compacticidade: para que um sistema com uma infinidade
enumerável de fórmulas seja coerente é necessário e suficiente que cada parte
finita do sistema o seja. Esse teorema recebeu pouca atenção quando de sua
publicação, sem dúvïda devido aos preconceitos da época em torno da noção de
infinito. No entanto, ele iria se tomar, a partir dos anos 40, uma das
principais ferramentas conceituais para o desenvolvimento da teoria de modelos.
Gödel evita explicitar em sua tese a
noção deverdade. Mais tarde, ele diria que “em razão dos preconceitos
filosóficos da época, umconceito de verdade matemática diferente do de
demonstrabilidade parecia altamente suspeito e costumava ser rejeitado como
desprovido de significado”. Seu teorema da completude representa sem dúvida um
resultado notável. Ainda assim, para obter o posto de privatdozent que deseja,
bem como o acesso à carreira universitária, ele precisa demonstrar alguma
“coisa maior”. Compreende-se, desse modo, que, apesar de toda a prudência que
já havia manifestado em sua tese, o gênio Gödel se dirija precisamente à pedra
angular do programa de Hilbert: a demonstração da coerência (não-contradição)
da análise matemática. Esse problema é o segundo de uma lista de 23 que Hilbert
expôs, em 1900, no Congresso Internacional de Matemática. Tal lista era
considerada, à época, como um mapa para toda a matemática do século XX. Aquele
que conseguisse resolver essa questão entraria para o panteão da matemática e
teria uma fulgurante carreira universitária.
A idéia de Gödel não era atacar
diretamente o problema da não-contradição da análise; mas demonstrar que a
análise seria coerente se e somente se a aritmética (teoria dos números) o
fosse. Uma vez obtida essa coerência relativa, bastava demonstrar a coerência
da teoria dos números, campo em que a utilização de métodos finitos parecia
mais promissora. Mesmo assim, o projeto era ousado, pois o método de
demonstração da coerência relativa nunca havia sido utilizado fora da geometria
(ele havia sido desenvolvido para demonstrar a coerência relativa da geometria
não-euclidianaem relação à geometria euclidiana). Gödel penetra, assim, em
território desconhecido.
O objetivo de Gödel não é,
absolutamente,provocar a queda de todo o programa de Hílbert. Ao contrário, ele
se via como um dos matemáticos da nova geração aos quais o grande Hilbert
lançara seu apelo apenas dois anos antes, por ocasião do Congresso de Bolonha.
Aceita, portanto, a tradição de axiomatização daaritmética para elaborar sua
demonstração. Uma axiomatização da teoria dos números havia sido oferecida pelo
matemático alemão Richard Dedekind desde 1888 (ver anexo O método axiomático e
as ciências dedutivas). No entanto, para construir seu sistema de axiomas, Dedekind
havia utilizado de maneira informal a teoria dos conjuntos. Mais
especificamente, ele colocara no mesmo nível objetos, expressões referidas a
objetos e expressões referidas a outras expressões: sua aritmética era de
segunda ordem.
Deve-se ao matemático italiano Guiseppe
Peano a etapa seguinte, decisiva para a axiomatização da matemática. Em sua
obra Arithmetices principia nova methodo exposita, publicada um ano depois dos
trabalhos de Dedekind, Peano apresentou um sistema de axiomas para os números
naturais que lembrava de maneira espantosa o sistema deDedekind, apesar de
concebido de modo independente. O matemático italiano, contudo, não construíra
sua teoria dentro do contexto conjuntista, e introduziu uma notação (que, com
uma ou outra modificação, tornou-se padrão) destinada a contornar certas
ambigüidades inerentes à linguagem natural (ver anexoA Aritmética de Peano).
Seu objetivo era captar, com o maior rigor possível, a natureza lógica do
princípio de indução, ou seja, a lógica de segunda ordem.
Em linguagem matemática, o princípio de
indução é condensado na fórmula: ∀α(α(0) ∧
∀x (α(x) → α(s(x))) → ∀α(x)
que se lê da seguinte maneira: “para toda propriedade α, se αé válida para zero
e se a proposição se αé válida para um número x, é válida também para seu
sucessor´ é verdadeira, então a propriedade αé válida para todo número
natural”.
Essa frase matemática não é uma fórmula
da lógica de predicados de primeira ordem, mas de segunda ordem: com efeito, o
primeiro quantificador (o primeiro “todo”) não está aplicado a uma variável que
representa indivíduos(números naturais), mas a uma variável que representa propriedades
desses indivíduos (propriedades dos números naturais). Em seu sistema
axiomático, Peano segue exatamente essa formulação do princípio, e especifica
que se trata de um axioma de segunda ordem.
4.6.2 Verdade e demonstrabilidade
A distinção entre axiomas de primeira e
segunda ordem foi estabelecida pelo lógico polonês Alfred Tarski (1902-1983)
para distinguir a linguagem-objeto de um estudo, ou seja, a linguagem utilizada
para falar de um domínio qualquer de objetos, da correspondente metalinguagem,
ou seja, a linguagem utilizada para falar da linguagem-objeto. Da mesma
maneira, existe uma metametalinguagem, que permite falar da metalinguagem, e
assim por diante. Todos esses níveis de linguagem superpõem-se como camadas
sucessivas e, para certos estudos lógicos, torna-se essencial separar
cuidadosamente cada camada. A façanha de Gödel residirá na invenção de um meio
para superar a barreira entre os diferentes níveis de linguagem.
Gödel desejava demonstrar a
não-contradição relativa da análise matemática em relação à aritmética de
Peano. Essa propostajá o conduz ao âmago do problema verdade-demonstrabilidade:
uma proposição verdadeira é sempre demonstrável? No rascunho de uma carta do
final dos anos 60, ele descreverá da seguinte maneira seu projeto à época:
“Minha tentativa de demonstração, pela teoria dos modelos, da coerência
relativa da análise e da aritmética forneceu tambéma ocasião para comparar
verdade e demonstrabilidade, pois essa demonstração conduz quase
obrigatoriamente a tal comparação. Um modelo aritmético para a análise não é
nada mais, com efeito, do que uma relação εque satisfaz ao seguinte axioma de
compreensão: ∃N
∀x ( x ∈N ↔ ϕ (x) ). [Existe
um conjunto N tal que, para todo número x,se x é um elemento de N, então a
propriedade ϕ (x)é verdadeira, e vice-versa.] Quando
se substitui ϕ (x)' por ϕ (x) é
demonstrável', tal relação εtoma-se fácil de definir. Dessa forma, se os termos
verdade e demonstrabilidade fossem equivalentes, teríamos alcançado nosso
objetivo. Segue da correta solução para os paradoxos semânticos, porém, que a
verdade das proposições de uma linguagem não poderá jamais expressar-se dentro
dessa mesma linguagem, contrariamente à demonstrabilidade (que é uma relação
aritmética). Como conseqüência, verdadeiro ≠ demonstrável”.
Nos anos 30, o problema colocado pela
formulação, em uma linguagem dada, de uma definição da noção de verdade para
essa mesma linguagem é, certamente, uma das questões mais discutidas nas
reuniões do Círculo de Viena: é possível definir precisamente o significado da
expressão “é uma proposição verdadeira na linguagem L”? Em fevereiro de 1930,
Menger convida Tarski para uma série de conferências, no curso das quais o
matemático polonês sublinha que diversos conceitos utilizados em lógica vêm
expressos, não na linguagem-objeto, mas na metalinguagem, e queé importante,
portanto, distinguir entre esses dois tipos de linguagem. Nessa ocasião, Gödel
solicita a Menger uma conversa particular com Tarski.
Se aceita a argumentação de Tarski acercado
conceito de verdade, Gödel mostra-se mais reticente em relação a esse mesmo
tipo deargumentação aplicado à não-contradição e à demonstrabilidade. Tanto
assim que abandona a idéia de construir um modelo aritmético para a análise
(provavelmente devido às reservas manifestadas na época relativamente à
utilização do conceito de verdade em demonstrações) e decide provar que a
demonstrabilidade e a não contradição podem, ainda que indiretamente, ser
expressas na linguagem-objeto da teoria, sem que isso acarrete antinomias
fatais.
Para o desenvolvimento de seus estudos
Gödel concebeu uma interessante formulação de símbolos, fórmulas e provas
através de números, bem como mostrou que as proposições metamatemáticas –
aliás, sem isso não poderia ter realizado sua prova – podem estar adequadamente
refletidas dentro do próprio cálculo, aritmetizando assim a própria
metamatemática. No anexo O Teorema da Incompletude de Gödelhá um pequeno resumo
sobre a prova de Gödel.
Gödel acabou com o sonho logicista,
visto que não se pode desenvolver toda a aritmética (e muito menos toda a
matemática) num sistema que seja ao mesmo tempo consistente e completo. Também
acabou com o sonho formalista: existem enunciados matemáticos que são
verdadeiros, mas não são suscetíveis de prova, isto é, existe um abismo entre
verdade edemonstração.
4.6.3 Outras conquistas
Gödel também, ao longo da demonstração
do seu teorema, rompeu um limiar crucial entre a lógica e a matemática. Ele
mostrou que qualquer sistema formal que seja tão rico quanto um sistema
numérico qualquer, e que contenha os operadores “+” e “=”, pode ser expresso em
termos aritméticos [Coh87]. Isto significa que por mais complexa que se torne a
matemática (ou qualquer outro sistema formal redutível a ela), pode-se sempre
expressá-la em termos de operações a serem executadas sobre números, e as
partes do sistema poderão ser manipuladas por regras de contagem e comparação.
Outro resultado fundamental do teoremada
incompletude de Gödel pode-se considerar como sendo a demonstração de que há
algumas funções sobre os inteiros que não podem ser representadas por um
algoritmo,ou seja, que não podem ser computadas. Posteriormente verificou-se a
existência deuma equivalência entre o Teorema da Incompletude de Gödel e o
problema da parada de Turing.
4.7
Alan Mathison Turing: o berço da Computação
A revolução do computador começou
efetivamente a realizar-se no ano de 1935, em uma tarde de verão na Inglaterra,
quando AlanMathison Turing (1912 - 1954), estudante do King’s College,
Cambridge, durante curso ministrado pelo matemático Max Neumann, tomou
conhecimento do Entscheidungsproblemde
Hilbert.Enquanto isso, conforme foi brevemente citado no item precedente, uma
parte da comunidade dos matemáticos buscava um novo tipo de cálculo lógico, que
pudesse, entre outras coisas, colocar em uma base
Os resultados de Gödel têm conseqüências
importantes também para a filosofia. Sabe-se, graças a ele, ser impossível
construir uma máquina que, de modo consistente, resolva todos os problemas da
matemática, com os recursos de um sistema (certos problemas, por assim dizer,
“não se deixam resolver” com os recursos do sistema apenas). Mas de fato o
matemático os resolve muitas vezes. matemática segura o conceito heurístico do
que seja proceder a um cômputo. O resultado destas pesquisas era fundamental
para o desenvolvimento da matemática: tratava-se de saber se é possível haver
um procedimento efetivo parase solucionar todos os problemas de uma determinada
classe que estivesse bem definida. O conjunto desses esforços acabou por formar
a fundamentação teórica da que veio a ser chamada “Ciência da Computação”.
Os resultados de Gödel e o problema da
decisãomotivaram Turing primeiramente a tentar caracterizar exatamente quais
funções são capazes de ser computadas. Em 1936, Turing consagrou-se como um dos
maiores matemáticos do seu tempo, quando fez antever aos seus colegas que é
possível executar operações computacionais sobre a teoria dos números por meio
de uma máquina que tenha embutida as regras de um sistema formal. Turing
definiu uma máquina teórica que se tornou um conceitochave dentro da Teoria da
Computação. Ele enfatizou desde o início que tais mecanismos podiam ser
construídos e sua descoberta acabou abrindo uma nova perspectiva para o esforço
de formalizar a matemática, e, ao mesmo tempo, marcou fortemente a História da
Computação.
A percepção genial de Turing foi a
substituição da noção intuitiva de procedimento efetivo por uma idéia formal,
matemática. O resultado foi a construção de uma conceituação matemática da
noção de algoritmo, uma noção que ele modelou baseando-se nos passos que um ser
humano dá quando executa um determinado cálculo ou cômputo. Ele formalizou
definitivamente o conceito de algoritmo.
4.7.1 A Máquina de Turing
Um dos primeiros modelos de máquina
abstrata foi a Máquina de Turing. Conforme
o próprio Turing escreveu: “Computar é normalmente escrever símbolos em um
papel. Suponha que o papel é quadriculado, podendo ser ignorada a
bidimensionalidade, que não é essencial. Suponha que o número de símbolos é
finito. [...]. O comportamento do(a) computador(a) é determinado pelos símbolos
que ele(a) observa num dado momento, e seu estado mental nesse momento. Suponha
que exista um número máximo de símbolos ou quadrículas que ele(a) possa
observar a cada momento. Para observar mais serão necessárias operações
sucessivas. Admitamos um número finito de estados mentais [...]. Vamos imaginar
que as ações feitas pelo(a) computador(a) serão divididas em operações tão
elementares que são indivisíveis. Cada ação consiste na mudança do sistema
computador(a) e papel. O estado do sistema é dado pelos símbolos no papel,
ossímbolos observados pelo(a) computador(a) e seu estado mental. A cada
operação, não maisde um símbolo é alterado, e apenas os observados são
alterados. Além de mudar símbolos, as operações devem mudar o foco da
observação, e é razoável que esta mudança devaser feita para símbolos
localizados a uma distância fixa dos anteriores. [...] Algumas destas operações
implicam mudanças de estado mental do computador(a) e portanto determinam qual
será a próxima ação”.
Palavras como procedimento efetivo e
algoritmo representam conceitos básicos dentro da Ciência da Computação. São
noções que na época de Turing já eram utilizadas pelos matemáticos, como por
exemplo Frege e Hilbert (ver capítulos que tratam dessas duas importantes
figuras).
O trabalho de Turing ficou documentado
no artigo On Computable Numbers with an aplication to the Entscheidungsproblem,
publicado em 1936 ([Tur50], volume XII). Ele descreveu em termos
matematicamente precisos como pode ser poderoso um sistema formal automático,
com regras muito simples de operação. Turing definiu que os cálculos mentais
consistem em operações para transformar números em uma série de
estadosintermediários que progridem de um para outro de acordo com um conjunto
fixo de regras, até que uma resposta seja encontrada. Algumas vezes se usa o
papel e lápis, para não se perder o estadodos nossos cálculos. As regras da
matemática exigem definições mais rígidas que aquelas descritas nas discussões
metafísicas sobre os estados da mente humana, e ele concentrou-se nadefinição
desses estados de tal maneira que fossem claros e sem ambigüidades, para que
tais definições pudessem ser usadas para comandar as operações da máquina.
Turing começou com uma descrição precisa de um sistema formal, na forma de
“tabela de instruções” que especificaria os movimentos a serem feitos para
qualquer configuração possível dos estados no sistema.
Provou então que os passos de um sistema
axiomático formal semelhante à lógica e os estados da máquina que perfaz os
“movimentos” em um sistema formalautomático são equivalentes entre si. Estes
conceitos estão todos subjacentes na tecnologiaatual dos computadores digitais,
cuja construção tornou-se possível uma década depois da publicação do matemático
inglês.
Um sistema formal automático é
umdispositivo físico que manipula automaticamente os símbolos de um sistema
formal de acordo com as suas regras. A máquina teórica de Turing estabelece
tanto um exemplo da sua teoria da computação quanto uma prova de que certos
tipos de máquinas computacionais poderiam ser construídas. Efetivamente, uma
Máquina de Turing Universal, exceto pela velocidade, que depende do hardware,
pode emular qualquer computador atual, desde os supercomputadores até os
computadores pessoais, com suas complexas estruturas e poderosas capacidades
computacionais, desde que não importasse o tempo gasto. Ele provou que para
qualquer sistema formal existe uma Máquina de Turing que pode ser programada
para imitá-lo. Ou em outras palavras: para qualquer procedimento computacional
bem definido, uma Máquina de Turing Universal é capaz de simular um processo
mecânico que execute tais procedimentos.
De um ponto de vista teórico, a
importânciada Máquina de Turing está no fato de que ela representa um objeto
matemático formal. Através dela, pela primeira vez, se deu uma boa definição do
que significa computar algo. E isso levanta a questão sobre o que exatamente
pode ser computado com tal dispositivo matemático, assunto fora do escopo do presente
trabalho e que entra no campo da complexidade computacional.
4.7.2 O problema da parada e o problema da decisão
Um ano mais tarde, trabalhando
independentemente, Alan Post publicou seu trabalho sobre uma máquina semelhante
à de Turing. Há um anexo onde se detalha um pouco mais sobre o funcionamento de
uma Máquina de Turing. Uma Máquina de Turing Universal é uma Máquina de Turing
específica que lê na sua fita de alimentação, além de dados de entrada, um
programa Ρque é uma especificação de uma Máquina de Turing qualquer.
Turing mostrou que o funcionamento de
sua máquina (usar-se-á a sigla MT a partir de agora) e a aplicação das regras
de formação de um sistema formal não têm diferença. Ele demonstrou também que
seu dispositivo poderia resolver infinitos problemas mas havia alguns que não
seriam possíveis, porque não haveria jeito de se prever se o dispositivo
pararia ou não. Colocando-se de outra maneira: dado um programa P para uma MT e
uma determinada entrada de dados E, existe algum programa que leia Pe E, e pare
após um número finito de passos, gerando uma configuração final na fita que
informe se o programa P encerra sua execução após um número finito de passos ao
processar E?
Comparando-se com as afirmações sobre
verdades aritméticas, dentro de um sistema formal consistente da aritmética,
que não são passíveis de prova dentro deste sistema, percebe-se que o problema
da paradade Turing nada mais é do que o Teorema de Gödel, mas expresso em
termos de uma máquina computacional e programas, ao invés de uma linguagem de
um sistema dedutivo da Lógica Matemática.
Em 1936 Turing provou formalmente o
seguinte teorema:
Teorema
da Parada:
dado um programa P qualquer para uma Máquina de Turing e uma entrada Equalquer
de dados para esse programa, não existe uma Máquina de Turing específica que
pare após um número finito de passos, e que diga se Pem algum momento encerra
sua execução ao processar E. A solução negativa desse problema computacional
implica também numa solução negativa para o problema de Hilbert. Portanto nem
todos os enunciados verdadeiros da aritmética podem ser provados por um
computador.
4.7.3 Outras participações
4.7.3.1
Decifrando códigos de guerra
Em 1940 o governo inglês começou a
interessar-se de maneira especial pelas idéias de Turing. Ele foi convocado
pela Escola de Cifras e Códigos, do governo, cuja tarefa era decifrar mensagens
codificadas do inimigo. Quando a guerra começou, a Escola Britânica de Códigos
era dominada por lingüistas e filólogos.O Ministério do Exterior logo percebeu
que os teóricos dos números tinham melhores condições de decifrar os códigos
alemães. Para começar, nove dos mais brilhantes teóricos dos números da
Inglaterra se reuniram na nova sede da Escola de Códigos em Bletchley Park, uma
mansão vitoriana em Bletchley, Buckinghamshire. Turing teve que abandonar suas
máquinas hipotéticas com fitas telegráficas infinitas e tempo de processamento
interminável, para enfrentar problemas práticos, com recursos finitos e um
limite de tempo muito real.
Devido ao segredo que cercava o trabalho
realizado por Turing e sua equipe, em Bletchley, a imensa contribuição que
prestaram ao esforço de guerra não pôde ser reconhecida publicamente por muitos
anos após o conflito. Costuma-se dizer que a Primeira Guerra Mundial foi a
guerra dos químicos e a Segunda Guerra Mundial, a guerra dos físicos.
De fato, a partir da informação revelada
nas últimas décadas, provavelmente é verdade dizer que a Segunda Guerra Mundial
também foi a guerra dos matemáticos. E no caso de uma terceira guerra mundial
sua contribuição seria ainda mais crítica. Em toda sua carreira como decifrador
decódigos, Turing nunca perdeu de vista seus objetivos matemáticos. As máquinas
hipotéticas tinham sido substituídas por máquinas reais, mas as questões
esotéricas permaneciam. Quando a guerra terminou, Turing tinha ajudado a construir
um computador, o Colossus, uma máquina inteiramente eletrônica com 1.500
válvulas que eram muito mais rápidas do que os relês eletromecânicos usados nas
bombas. Colossus era um computador no sentido moderno da palavra. Com sua
sofisticação e velocidade extra, ele levou Turing a considerá-lo um cérebro
primitivo. Ele tinha memória, podia processar informação, e os estados dentrodo
computador se assemelhavam aos estados da mente. Turing tinha transformado sua
máquina imaginária no primeiro computador legítimo. Depois da guerra, Turing
continuou a construir máquinas cada vez mais complexas tais como o Automatic
Computing Engine.
Para maiores detalhes sobre os episódios
que envolveram Turing e a Máquina Enigma, e de como foi decifrado o código de
guerra alemão, ver o anexo Turing e a Máquina Enigma.
4.7.3.2
O computador ACE e inteligência artificial
Enviado à América para trocar
informações com o serviço de inteligência americano e conhecer os projetos
relacionados a computadores, ele tomou conhecimento das emergentes tecnologias
eletrônicas e chegou a participar de outro projeto secreto, o Delilah, um
codificador de voz (conhecido nos filmes de espionagem como scramblers), tendo
entrado em contato com von Neumann (que quis trazê-lo para junto de si em seus
projetos) e com os engenheiros da Bell (incluindo Claude Shannon). De volta
para a Inglaterra, entrou para o National Physical Laboratory, onde trabalhou
no desenvolvimento do Automatic Computing Engine (ACE), uma das primeiras
tentativas de construção de um computador digital. No fim da guerra, já se
detinha o conhecimento sobre novas tecnologias eletrônicas, que poderiam ser
usadas para aumentar a velocidade dos então circuitos lógicos existentes. A
real possibilidade de se construir modelos de Máquinas de Turing Universais fez
com que o governo inglês investisse na construção desse novo dispositivo,mas os
americanos foram mais agressivos em seus investimentos e acabaram ganhando a
corridana construção de computadores. Turing, vítima de intrigas políticas,
ficou fora docentro e controle dos novos trabalhos. Seus relatórios técnicos
sobre os projetos de hardwaree software do ACE eram ambiciosos e se a máquina
originalmente imaginada por ele tivesse sido construída imediatamente, os
ingleses não teriam amargado o atraso em relação aos seus colegas do outro lado
do Atlântico.
Foi também durante a temporada do ACE
que Turing começou a explorar as relações entre o computador e os processos
mentais, publicando um artigo, Computing Machinery and Intelligence(1950),
sobre a possibilidade da construção de máquinas que imitassem o funcionamento
do cérebro humano.Pode uma máquina pensar, perguntava-se em seu artigo, e além
de focar no assunto inteligência das máquinas, Turing adquiriu especial
notoriedade ao tentar introduzir, através desse artigo, um teste para decidir
se realmente pode ou não uma máquina pensar imitando o homem. Em novembro de
1991, o Museu do Computador de Boston realizou uma competição entre 8 programas
que simulavam o Turing test, ganho por um programa chamado PC Therapist III. O
problema do teste de Turing é de natureza behaviorista, isto é, somente
observao comportamento exterior, o que lhe dá uma caráter um tanto
reducionista. Sérias controvérsias ocorreram e ainda ocorrem sobre esse tema,
que esta fora do escopo deste livro.
4.7.3.3
Programação de computadores
Turing também esteve interessado na
programação das operações de um computador − o que então começou a chamar-se de
codificação − em função das operações matemáticas aí envolvidas e começou a
escreverlinguagens de programação, avançadas então para o hardware da época.
Turing estava convencido de que operações de cálculo eram somente um dos tipos
de sistemas formais quepoderiam ser imitados pelos computadores.
Em particular, ele percebeu como as
tabelas de sua máquina teórica poderiam tornar-se elementos de uma poderosa
gramática que asmáquinas utilizariam para modificar suas próprias operações
Turing inovou ao começar a elaborar tabelas de instruções, que automaticamente converteriam
a escrita decimal a que estamos acostumados em dígitos binários.
Estes poderiam ser lidos pelas máquinas
que começavam a ser construídas tendo como base a álgebra booleana. Turing
anteviu assim que no futuro, os programadores poderiam trabalhar com as linguagens
hoje conhecidas como de alto nível. Dizia: “As tabelas de instruções deverão
ser feitas por matemáticos com experiência em computadores e certa habilidade
em resolver problemas de solução mais difícil. Haverá bastante trabalho deste
tipo a ser feito, se todo os processos conhecidos tiverem de ser convertidos na
forma de tabelas de instruções em determinado momento. Esta tarefa seguirá
paralelamente à construção da máquina, para evitar demoras entre o término
desta e a produção de resultados. Poderão ocorrer atrasos, devido a virtuais
obstáculos desconhecidos, até o ponto em que será seja melhor deixar os
obstáculos lá do que gastar tempo em projetar algo sem problemas (quantas
décadas estas coisas levarão?). Este processo de elaboraçãode tabelas de instruções
será fascinante”.
Ele percebeu ainda que a capacidade deum
computador não estaria somente limitada às questões de hardware, mas também
desoftware. Exceto talvez por Konrad Zuse e von Neumann, foi o único a falar
sobre os desafios matemáticos e lógicos da arte de programar computadores e
seria von Neumann quem completaria em um estilo elegante sua ideia de uma
linguagem de programação mais sofisticada.
4.7.4 O triste fim
O trabalho de Turing na Computação e
naMatemática foi tragicamente encerrado por seu suicídio em junho de 1954, com
a idade de 42 anos. Turing era homossexual e, depois da fuga de dois espiões
britânicos de igual tendência para a então União Soviética, nos inícios da
década de 1950, houve uma especial pressão sobre ele para corrigir sua condição
através do uso de hormônios. Turing, não agüentando a forte pressão, tomou
cianeto.
Nenhum comentário:
Postar um comentário
Sintam-se à vontade para enriquecer a participação nesse blog com seus comentários. Após análise dos mesmos, fornecer-lhe-ei um feedback simples.