sábado, 19 de janeiro de 2013

RESUMO DA ORIGEM E DA EVOLUÇÃO DAS CIÊNCIAS ESTATÍSTICAS


Blog “Ciências Exatas Contemporâneas”, de autoria de Álaze Gabriel.


UM PASSEIO SOBRE A EVOLUÇÃO DA ESTATÍSTICA NOS ÚLTIMOS ANOS

Antigamente: a expressão "estatística" advinha da palavra latina STATUS (Estado), por estar diretamente relacionada a serviços estatísticos estatais, os existentes na época;
Hoje: Estatística = Ciência + Tecnologia  + Arte;  a) Ciência: tem identidade própria com um grande número de técnicas deduzidas de princípios básicos; b) Tecnologia: sua metodologia pode ser implantada num sistema operacional para manter um nível desejado de performance; c) Arte: depende da razão indutiva e não está livre de controvérsias.

RESUMO CRONOLÓGICO DA ESTATÍSTICA

AEC (antes da Era Comum, conhecida pelo período anterior ao nascimento de Jesus Cristo)

5000 AEC -- Registros egípcios de presos de guerra Registros egípcios de presos de guerra;
3000 AEC - Jogos de Dados;
2000 AEC -- Censo Chinês;
1500 AEC -- Dados de mortos em guerras no Velho Testamento;
1600 AEC -- matriz aumentada e eliminação Gaussiana (manuscrito chinês);
1100 AEC -- Registros de dados em livros da Dinastia Chinesa;
585 AEC  -- Thales de Mileto usa a geometria dedutiva;
540 AEC -- Pitágoras (Aritmética e Geometria);
430 AEC -- Philolaus obtém dados de Astronomia e Hippocrates Philolaus estuda doenças a partir da coleta de dados;
400 AEC -- Estabelecido o Censo Romano;
310 AEC – Descrição detalhada como os dados deveriam ser coletados em livros de Constantinopla;
300 AEC  -- Elementos de Euclides; 
250 AEC -- Estudos Avançados na Aritmética Diophantus;
180 AEC -- Origem de Dados Circulares (Hypsicles);
140 AEC -- Surge a Trigonometria com Hipparchus; 
120 AEC -- Menelaus apresenta tabelas estatísticas cruzadas;

EC (Era Comum, conhecida pelo nascimento de Jesus Cristo)

100 AEC -- Horácio usa um ábaco de fichas instrumento de “cálculo portátil”;
300 EC -- Desenvolvimento da álgebra;
400 EC -- Desenvolvimento da teoria dos números;
470 EC -- Valor de pi por Tsu Chung;
620 EC -- Surge em Constantinopla um Primeiro Bureau de Estatística que existiu até 680;
695 EC -- Primeira utilização da média ponderada pelos árabes na contagem de moedas;
775 EC -- Trabalhos estatísticos hindus são traduzidos para o árabe;
800 EC – Algoritmo (Ben Musa);
826 EC -- Os árabes usam cálculos estatísticos tomada de Creta;
830 EC – AlKhwarizmi desenvolve a álgebra;
840 EC -- O astrônomo persa Yahyâ Abî Mansûr apresenta tabelas astronômicas amplas;
1202 EC -- Sequência de Fibonacci;
1303 EC - Origem dos Números Combinatórios (Shihchieh Chu);
1405 EC -- O persa Ghiyat Kâshî realiza os primeiros cálculos  de probabilidade com a fórmula do binômio de p;
1447 EC -- Surgem as primeiras tabelas de mortalidade construídas pelos sábios do Islã;
1530 EC – Lotto de Firenze, Primeira Loteria Pública;
1543 EC -- Progressão Geométrica (Stifel);
1550 EC -- Número Combinatório (Cardano);
1572 EC -- Origem dos números complexos (Bombelli);
1591 EC -- Solução de uma equação cúbica (Viète);
1593 EC – Fórmula de Viète param π;
1614 EC -- Napier cria os logaritmos;
1620 EC -- Descartes descobre a Geometria Analítica;
1629 EC -- Método de Máximo e Mínimo e Teoria dos (Pierre de Fermat);
1654 EC – Pierre de Fermat e Blaise Pascal estabelecem os Princípios do Cálculo das Probabilidades;
1656 EC -- Huygens publica o primeiro tratado de Probabilidade;
1660 EC -- Fundação da Royal Society of London;
1662 EC -- Primeiros estudos demográficos (Graunt) e Origem da Palavra Estocástico;
1665 EC -- Expansão do Binômio e Origem do Cálculo (Newton) -- Modelo de Leibniz (precursor teórico da computação);
1670 EC -- Fórmula de Interpolação de Gregory e Último Teorema de Fermat;
1676 EC -- Derivada e Teorema Fundamental do Cálculo (Leibniz);
1679 EC – Distribuição de Pascal, Tratado do Triângulo Aritmético e conceito do Valor Esperado (Pascal);
1684 EC -- Leibniz desenvolve o Cálculo Diferencial e Integral;
1685 EC -- Método de Newton-Raphson (John Wallis);
1687 EC -- Princípios Matemáticos da Filosofia Natural (Newton);
1693 EC -- Edmund Halley publica tabelas de mortalidade e cria os  fundamentos da Atuária;
1694 EC -- Regra de L Hospital (Johann Bernoulli);
1702 EC -- Logaritmos Complexos (James Bernoulli);
1707 EC -- Fórmula de D Fórmula de D´´Moivre Moivre;
1713 EC -- Distribuição Binomial (James Bernoulli);
1715  EC -- Teorema de Taylor;
1718 EC -- D´´Moivre publica “The Doctrine of Chances”;
1727  EC -- Número “e” de Euler;
1730 EC -- Distribuição Normal (D´´Moivre) e Fórmula de Stirling;
1733 EC – Teorema do Limite Central(D´Moivre);
1736 EC -- Início da teoria dos grafos (Euler);
1738 EC -- Medição do Risco (Daniel Bernoulli);
1741 EC – Início da Demografia (Sussmilch);
1742 EC -- Expansão de Taylor (Brook Taylor);
1748 EC -- Fórmula do Produto (função zeta em termos de potências dos primos) e Identidade de Euler, 1º Uso do termo “Estatística”;
1749 EC -- Método  Método Minimax (Euler);
1750 EC – Teorema dos Números Pentagonais (Euler) e Regra de Cramér;
1753 EC -- Solução Geral da Equação da Onda (Bernoulli);
1756 EC -- Distribuições Discretas uniforme e do isósceles (Simpson);
1763 EC -- Inferência Bayesiana (Thomas Bayes;
1764 EC – Probabilidade Condicional e Teorema de Bayes;
1765 EC -- Distribuição Contínua Semi--Circular (Lambert);
1774 EC -- Teoria da Estimação e Distribuições normal e exponencial dupla  (Laplace);
1775 EC -- William Morgan se torna o Primeiro Atuário;
1776 EC -- Distribuições Contínuas Uniforme e Parabólica (Lagrange),  Expansão de Laplace;
1777 EC -- Primeiro exemplo de uso da verossimilhança na estimação de parâmetro (Daniel Bernoulli);
1779 EC -- Geometria Analítica (Horsley);
1782 EC -- Quadrado Latino (Euler);
1786 EC -- Gráfico de Barras (Playfair) e Limite (Huilier);
1795 EC -- Fatoração de Cholesky, Método dos Mínimos Quadrados (Gauss) e Fómula de Interpolação de Lagrange;
1797 EC -- Funções Analíticas (Lagrange) e o verbete aparece na Enciclopédia Britânica;
1799 EC -- Mecânica Celeste (Laplace);
1800 EC -- A França estabelece o seu Bureau de Estatística;
1801 EC -- Determinante (Gauss);
1804 EC – Análise de dados da órbita do Halley (Bessel);
1805 EC -- Método dos Mínimos Quadrados (Legendre;
1807 EC -- Séries de Fourier;
1809 EC – Distribuição Normal e Publicação do Método dos Mínimos Quadrados no Livro de Mecânica Celeste (Gauss);
1810 EC – Teorema Central do Limite (Laplace);
1812 EC -- Théorie Analytique des Probabilités (Laplace);
1816  EC -- Função Inversa (Lacroix);
1820 EC -- Várias sociedades de Estatística são criadas;
1821 EC -- Demonstração do que se chama hoje Teorema de  Demonstração de Gauss;
1822 EC -- Séries de Fourier;
1826 EC -- Princípio da Dualidade (Poncelet);
1827 EC -- Movimento Browniano;
1831 EC -- Teoria Geral das Equações de Galois;
1834 EC -- Primeiro Computador Analítico (Charles Babbage) e Fundação do Journal of the Royal Statistical Society; Computador Mecânico de Charles Babbage;
1835 EC -- Lei dos Grandes Números (Poisson);
1836 EC -- Distribuição Gama;
1837 EC -- Distribuição de Poisson;
1839 EC -- Fundação da American Statistical Association (ASA);
1846 EC -- Uso de Quantis (Quetelet);
1848 EC – Range (Lloyd);
1850 EC -- Conceitos de matriz e menor (Sylvester);
1852 EC – Jacobiano (Sylvester);
1853 EC -- Distribuição de Cauchy e Primeira Internacional de Estatística em Bruxellas (Quetelet);
1858 EC – Artur Cayley cria o Cálculo;
1859 EC -- Desigualdade de Cauchy e Função Zeta com argumentos complexos (Riemann);
1879 EC -- Posto de uma matriz (Frobenius);
1860 EC -- Polinômios de Chebyshev – Hermite;
1861 EC -- Matriz Aumentada (Smith);
1863 EC -- Distribuição Qui--Quadrado (Abbé);
1864 EC -- Distribuição de Hermite;
1865 EC – Entropia (Clausius);
1867 EC -- Desigualdade de Chebyshev;
1868 EC -- Origem do Termo Resíduo (Watson);
1869 EC – Genialidade Hereditária (Galton);
1871 EC – Notas em Hospitais (Florence Nightingale) e Função de Erro (Glaisher);
1873 EC -- Determinação experimental de pi e prova por Hermite que “e” é transcendental;
1875 EC -- Número Índice (Jevons);
1876 EC – Primeiro uso de Método do tipo Monte Carlo (Forest);
1877 EC -- Processo AR(1) (Galton);
1879 -- Distribuição Log Normal (McAlister), Super Normal (McAlister), Dispersão de Dados (Lexis) e Posto de uma matriz (Frobenius);
1880 EC -- Distribuição de Rayleigh, Produto escalar (Gibbs);
1882 EC – Prova que pi é transcendental por Lindemann;
1883 EC -- Ortogonalização de Gram;
1885 EC -- Fundação do ISI;
1887 EC -- Teoria da Regressão (Galton) e Índice de Marshall;
1889 EC -- Princípios da Lógica Indutiva (Venn) e Cumulante (Thiele);
1890 EC – Equações paramétricas de uma curva (Peano);
1892 EC -- Coeficiente de Correlação (Edgeworth);
1894 EC -- Método de Momentos e desvio padrão (Karl Pearson);
1895 EC -- Distribuição de Frequência, Sistema de Distribuições, Distribuição Assimétrica e Coeficiente de Variação (K. Pearson);
1896 EC – Métodos de Captura e Recaptura (Peterson);
1897 EC – Distribuição de Pareto e Erro Padrão (Yule);
1898 EC – Correções de Sheppard;
1899 EC – Curva Normal Padrão (Sheppard);
1900 EC – Teste Qui-Quadrado (K. Pearson),Cadeias de Markov, Coeficiente de Associação (Yule) e Combinação Linear (Hill);
1901 EC – Fundação da Biometrika (Pearson, Weldon e Galton);
1902 EC – Matriz Adjunta (Dickson) e Teoria da integração de Lebesgue;
1903 EC – Semi-Invariantes ou Cumulantes (Thiele);
1904 EC – Análise Fatorial Autovalor (Hilbert), Expansão de Edgeworth, Coeficiente de Contingência (K. Pearson) e Correlação de Posto (Spearman);
1905 EC – Curva de Lorenz, Curtose e Passeio Aleatório (K. Pearson);
1906 EC – Cálculo Funcional (Fréchet), Desigualdade de Jensen e Diagrama de Dispersão (Pearson);
1907 EC – Matriz Singular (Bôcher);
1908 EC – Distribuição t de Student, distribuição amostral do coeficente de correlação (William Gosset) e Análise Fatorial (Spearman);
1909 EC -- Problema da Ruína (Coolidge);
1910 EC --Integal de Stieltjes (Lebesgue)  Integal de Stieltjes (Lebesgue);
1912 EC -- Método de Máxima Verossimilhança (Ronald Fisher) e  Método de Máxima Verossimilhança (Ronald Fisher) e Índice de Gini;
1913 EC -- Primeiro Teorema da Teoria dos Jogos (E. Zermelo), Bureau de  Estatísticas do Trabalho dos EUA e Desigualdade de Markov;
1914 EC -- Método do Mínimo Qui--Quadrado (Yule);
1916 EC -- Variável Aleatória (Cantelli);
1917 EC -- Fórmula do Atraso de Erlang;
1918 EC – Definição formal de Variância em um artigo de Genética (Fisher) e Distribuição de von Mises;
1919 EC -- Espaço Amostral (von Mises);
1921 EC -- Informação, Graus de Liberdade e Suficiência (Fisher),  Probabilidade Lógica (Keynes);
1922 EC -- Definição de Verossimilhança, Consistência e Eficiência (Fisher)  e Prova Rigorosa do Teorema Central do Limite (Lindeberg);
1923 EC -- Tabela ANOVA (Fisher) e Processo de Wiener;
1924 EC -- Desigualdade de Bernstein;
1925 EC -- Método escore para parâmetros, definição de testes de hipóteses em “Statistical Methods for Research Workers” (Fisher);
1926 EC -- Planejamento de Experimentos (Fisher), Conceito de Hipótese  Alternativa (Gosset) e Correlação Serial (Yule);
1928 EC -- Distribuição de Wishart, Distribuições Não Distribuição de Wishart, Distribuições Não--Centrais (Fisher),  Centrais (Fisher), Intervalos de Confiança, Razão de Verossimilhanças, Erros tipo I e tipo II e Poder dos Testes (Neyman & Pearson);
1929 EC -- Estatísticas k (Fisher) e Função de Sobrevivência (Lotka);
1930 EC – Controle de Qualidade nas indústrias Inferência Fiducial (Fisher), Distância de Mahalanobis, Tempo Médio de Espera na Fila M/G/1 (Pollaczek) e Fundação da Econometria;
1931 EC -- Definição de Espaço Amostral (von Mises) e Cartas Controle de Qualidade (Shewhart);
1932 EC -- Distribuição de Gumbel e Processo Estocástico (Kolmogorov);
1933 EC -- Lema de Neyman & Pearson, Distância de Kolmogorov,  Componentes Principais (Hotteling), Autocorrelação (Davis), Fundamentos de Probabilidade (Kolmogorov);
1934 EC -- Quadrado Grego-Latino (Fisher e Yates), Estatística Ancilar,  Família Exponencial e Princípios da Verossimilhança (Fisher), Teorema de Cochran, Distribuição F(Snedecor) e Análise de Confluência (Frisch);
1935 EC -- Correlação Canônica (Hotteling), Curva de Mortalidade--Dosagem (Bliss), Formulação Matemática da Família Exponencial (Darmois), Valor Extremo (Gumbel), Exponencial (Darmois);
1936 EC -- Verossimilhança Marginal e Condicional (Bartlett), Desigualdades de  Bonferroni, Função Suporte (Jeffreys) e Estatística de Smirnov;
1937 EC – Inferência e Não Inferência Não-Paramétrica (Pitman), Teoria das Regiões de Confiança (Pitman), Expansão de Cornish--Fisher, Correção de Bartlett e Ensaios  Clínicos Aleatorizados (Hill);
1938 EC -- Distribuição Assintótica da Razão de Verossimilhanças (Wilks) e Processo Autoregressivo (Yule);
1939 EC -- Distribuição de Weibull, início dos Métodos Bayesianos (Jeffreys), Função de Risco e Teoria da Decisão (Wald);
1940 EC -- Invenção do Computador Eletrônico e Teoria da Renovação (Brown);
1943 EC -- Modelo de Equações Simultâneas (Haavelmo); Primeiro Computador Eletro;
1944 EC -- Surgem as Técnicas de Monte Carlo;
1945 EC – Planos Amostrais (Mahalanobis), Desigualdade de  Planos Amostrais (Mahalanobis), Desigualdade de Cramér--Rao, Teorema de Rao--Blackwell, Testes  Blackwell, Testes Sequenciais (Wald) e Teste de Wilcoxon;
1946 EC – Condições de Regularidade do EMV (Cramér),  Distribuição a  Gama (Bartlett e Kendall), Distribuição a priori de Jeffreys e Estatísticas U e V (Halmos);
1947 EC -- Aditividade em ANOVA (Eisenhart), Distribuição Normal Inversa e Métodos Sequenciais (Wald), Estatística escore (Rao), Modelos Exponenciais de  Estatística escore (Rao), Modelos Exponenciais de  Dispersão (Tweedie), Método Simplex (Dantzig) e Teste de Mann--Whitney Whitney;
1948 EC – Inteligência Artificial (Turing), Eficiência Assintótica e Cibernética (Wiener);
1949 EC -- Método de Linearização, Eficiência em Grandes Amostras (Neyman) e Teste de Aditividade de Tukey;
1950 EC -- Teoria Estatística de Decisão (Wald), Teorema de Lehmann-Scheffé, Termo Bayesiano entra em circulação (Fisher) Scheffé, Teste de Durbin--Watson;
1951 EC -- Informação de Kullback-Leibler, Modelo de Regressão Hetero—cedástico, Testes Não-Paramétricos de Lehmann ,Teste de cedástico, Teste de Kolmogorov--Smirnov, Teorema de Kuhn Smirnov, Teorema de Kuhn--Tucker, Primeiro Computador  Tucker, Primeiro Computador Comercial instalado no Bureau de Censo dos EUA;
1952 EC -- Estatística de Anderson--Darling e Teste de Kruskal--Wallis Wallis;
1953 EC -- Método de amostragem que envolvia Cadeias de Markov (Metropolis et. al.) e Inferência Robusta (Box);
1954 EC -- Aproximações Ponto de Sela (Daniels) e Carta CUSUM (Page);
1955 EC -- Completude e Regiões Similares (Lehmann e Scheffé) e Inversa Generalizada (Penrose), Teste de Aleatoriedaade (Box e Andersen);
1956 EC -- Método Jackknife (Quenouille);
1957 EC -- Programação Dinâmica (Bellman);
1958 EC -- Estimador de Kaplan, Fator de Bayes (Good) e Origem da palavra Software (Tukey);
1959 EC -- Estudo restrospectivo de doenças (Mantel & Haenszel);
1960 EC -- Inferência em modelos de espaço de estados  (Kalman) e Comparação Estocástica (Bahadur);
1961 EC -- Famílias Separadas de Hipóteses (Cox) e Filtro de Kalman;
1962 EC -- Princípios de Inferência (Birnbaum);
1964 EC -- Modelos de Box e Cox e Estimação Robusta (Huber);
1965 EC – Início do E Mail (MIT);
1967 EC -- Caso Multivariado da Expansão de Edgeworh (Chambers);
1968 EC -- Inferência Estrutural (Fraser), Matriz Hat (Tukey);
1970 EC -- Modelos ARMA (Box & Jenkins) e Modelos Log-Lineares,  Lineares, Generalização do Método de Metropolis (Hastings) e Regressão Rígida (Hoerl e Kennard);
1971 EC – EDA (Tukey);
1972 EC -- Modelo de Riscos Proporcionais (Cox) e os Modelos Lineares Generalizados (Nelder & Wedderburn);
1973 EC -- Critério da Informação de Akaike;
1974 EC -  Quase--Verossimilhança (Wedderburn);
1975 EC -- Curvatura Estatística (Efron), Verossimilhança Parcial (Cox) e Teoria da Catástrofe (René Thom);
1976 EC -- Enfoque Bayesiano em Modelos de Espaço de  Estados (Harrison e Stevens);
1977 EC -- Análise Estatística de Formas (Kendall), Análise  Exploratória de Dados e Distribuições (Tukey), Algoritmo EM (Dempster, Laird e Rubin), Árvores de Regressão (Friedman), EMV em pequenas amostras (Bowman & Shenton) e TEX (Knuth);
1979 EC -- Método Bootstrap (Efron) e Verossimilhança Preditiva (Mathiasen);
1980 EC -- Aproximações Ponto de Sela para Soma Estocástica (Lugannani e Rice) e Teste de White;
1981 EC -- Surgimento do IBM--PC e Estimadores M (Huber);
1982 EC – Distribuição Secante, Hiperbólia Generalizada (Morris), Modelos ARCH (Engle) e Redes Neurais (Hopfield);
1983 EC – Fórmula p* e verossimilhança perfilada (Barndorff-Nielsen);
1984 EC – Amostrador de Gibbs (Geman & Geman);
1985 EC -- Modelos para Análise de Dados Longitudinais, Inferência Pivotal (Barnard) e Cálculo de  π com 17 milhões de dígitos;
1986 EC -- GEE (Equações de Estimação Generalizadas) de Liange Zeger, Modelos Aditivos Generalizados e Modelos GARCH (Bollerslev);
1987 EC -- Definição de Yoke (Barndorff Definição de Yok Nielsen) e Modelos de Dispersão (Jorgensen);
1988 EC -- Modelos  KDD (“Knowledge Discovery in Databases”), Modelos Dinâmicos (West e Harrison), Verossimilhança Empírica (Owen), CC (Gf 1990  1990 -- Métodos MCMCno contexto Bayesiano (Gelfand e Smith), Mineração de Dados (“Data Mining”), Projeto Genoma Humano,  Teoria da Perturbação Estocástica (Stewart);
1991 EC -- Computação Neural (Hertz, Krogh e Palmer) e  Mínimos Quadrados Total (Van Huffel e Vandewalle);
1995 EC -- Modelos Multiníveis (Goldstein);
1996 EC – Profundidade da Regressão (Rousseeuw e Hubert) e site de busca google (Brin e Page);
1997 EC – Modelos Fatoriais;
2001 EC -- 100 anos da Biometria;
2002 EC – Cálculo de  π com 51 bilhões de dígitos.

HISTÓRIA DA ESTATÍSTICA NO BRASIL

1953 EC -- Criação do Bacharelado de Estatística da ENCE  (ENCE foi fundada em 6 de março de 1953);
1955 EC -- Fundação da RBRAS em Campinas;
1957 EC -- 1º Colóquio Brasileiro de Matemática;
1964 EC4 -- Mestrado em Estatística e Experimentação Agronômica da ESALQ;
1967 EC -- Bacharelado em Estatística da UFRJ;
1968 EC -- Bacharelado em Estatística na UFPE;
1969 EC -- Fundação da SOBRAPO e da SMB (7º CBM)  ;
1970 EC -- Criação do Departamento de Estatística da USP e Primeiros  Doutores em Estatística formados no exterior;
1971 EC -- Primeiros Mestres em Estatística do Brasil (USP);
1972 EC  – Bacharelado em Estatística na USP;
1973 EC -- Bacharelado em Estatística na UNICAMP;
1974 EC -- Primeiro SINAPE na UFRJ, Transferência do Curso de Estatística da FEA para o IM/UFRJ;
1975 EC -- Mestrado em Matemática Aplicada (Estatística) no IMPA;
1976 EC -- Criação do Departamento de Estatística da UFMG, Início do Bacharelado em Estatística da UFSCar e 2º SINAPE na UNICAMP;
1977 EC -- Início do Mestrado em Estatística da UNICAMP e Primeiro  Doutor em Estatística do Brasil (24/6, IME/USP);
1978 EC -- 3º SINAPE na USP, Fundação da SBMAC (ICE/UFMG),  Bacharelado em Estatística da UFMG e UFRGS, Mestrado em Estatística da UFMG, da UFRGS e da UFRJ;
1979 EC -- Doutorado em Estatística e Experimentação Agronômica na  ESALQ e Criação da SBE durante o 1º EBE (Atibaia SP);
1980 EC -- Primeira Dissertação de Mestrado em Estatística na UFRJ;
1981 EC -- Primeiro Número do Brazilian Review of Econometrics;
1983 EC – Criação do Departamento de Estatística da UFPE;
1984 EC -- Fundação da ABE durante o 5º SINAPE na UFRJ e Início do Bacharelado em Estatística da UFBA;
1985 EC – 1ª Escola de Séries Temporais e Econometria (ESTE) do Brasil;
1986 EC -- Fundação do BJPS (REBRAPE);
1987 EC -- Primeiro Número do BJPS;
1989 EC -- Primeira Escola de Modelos de Regressão (EMR) e fundação da Associação Brasileira de Estatística (fundada em 7 de setembro de 1984);
1994 EC -- Início do Mestrado em Estatística da UFPE;
1996 EC – Mestrado em Estatística da UFMG;
1998 EC – Mestrado em Estudos Populacionais e Pesquisas Sociais na ENCE;
1999 EC -- Mestrado em Estatística da UFSCar;
2001 EC – Abertura do Doutorado em Estatística da UFRJ e Curso de Ciências Atuariais na UFMG;
2002  EC -- Prêmio ABE;
2004  EC -- 20 anos da ABE (16º SINAPE, Caxambú);
2005 EC – Doutorados em Estatística da UNICAMP e UFMG e 50 anos da RBRAS (Londrina);
2006 EC -- Doutorado em Estatística da UFSCar, Mestrado em Matemática Aplicada da UFRN;
2007 EC -- Doutorado em Estatística da UFPE e 90 anos do Prof. Pompeu Memória;
2008 EC -- 18º SINAPE, Mestrado em Estatística na UnB, XIX ENESTE;
2009 EC – 11ª EMR (Recife), Fórum dos 30 anos da Estatística da UFMG, 54ª RBRAS e 13º SEAGRO;
2010 EC -- X EBEB, EBP, 19º SINAPE, 25 anos na UFF, APSM, 55ª RBRAS/IBC;
2011 EC – 12ª EMR (Fortaleza), ESTE (RGS);

O QUE É A ESTATÍSTICA?

Mais correntemente, Estatística significa enumeração ou informação numérica habitualmente contida em tabelas ou gráficos. Quando se fala em Estatística pensa-se em censos, inventários, amostras ou médias. Em sentido restrito tudo isso se pode considerar uma Estatística.
Num sentido mais lato, Estatística é a ciência que se ocupa da recolha e tratamento de informação. Tem como objectivo analisar os dados recolhidos, descrevendo-os e organizando-os para posterior interpretação e eventual utilização na previsão de acontecimentos futuros.
A Estatística divide-se em dois ramos distintos: a Estatística Descritiva, responsável pelo estudo das características de uma dada população; e a Estatística Indutiva, que generaliza um conjunto de resultados, tendo por base uma amostra de uma dada população ou universo, enunciando a(s) consequente(s) lei(s).

EVOLUÇÃO HISTÓRICA DA ESTATÍSTICA

As necessidades que exigiam o conhecimento numérico dos recursos disponíveis começaram a surgir quando as sociedades primitivas se organizaram.  Os Estados, desde tempos remotos, precisaram conhecer determinadas características da população, efectuar a sua contagem e saber a sua composição ou os seus rendimentos.
Para que os governantes das grandes civilizações antigas tivessem conhecimento dos bens que o Estado possuía e como estavam distribuídos pelos habitantes, realizaram-se as primeiras estatísticas, nomeadamente para determinarem leis sobre impostos e números de homens disponíveis para combater. Estas estatísticas, eram frequentemente limitadas à população adulta masculina.
O primeiro dado disponível sobre um levantamento estatístico foi referido por Heródoto, que afirmava ter-se efectuado em 3050 a. C. um estudo das riquezas da população do Egipto com a finalidade de averiguar quais os recursos humanos e económicos disponíveis para a construção das pirâmides.
Há também notícia de que no ano 2238 a. C. se realizou um levantamento estatístico com fins industriais e comerciais ordenado pelo imperador chinês Yao. Existem indícios, que constam da Bíblia, relativamente a recenseamentos feitos por Moisés (1490 a.C.). Outra estatística referida pelos investigadores foi feita no ano 1400 a. C., quando Ramsés II mandou realizar um levantamento das terras do Egipto. Também os romanos faziam o recenseamento dos cidadãos e dos bens. Eram os censores, magistrados romanos, que asseguravam o censo dos cidadãos. 

Uma das convenções da História é ligar a datação (a.C. ou d.C.) ao recenseamento populacional ordenado pelo imperador César Augusto. As estatísticas realizadas por Pipino, em 758, e por Carlos Magno, em 762, sobre as terras que eram propriedade da Igreja, são algumas das estatísticas importantes de que há referências desde a queda do império romano.
Guilherme, “O Conquistador”, que reinou entre 1066 e 1087, ordenou que se fizesse um levantamento estatístico da Inglaterra. Este levantamento deveria incluir informações sobre terras, proprietários, uso da terra, animais... e serviria de base, também, para o cálculo de impostos.
 Para responder ao desenvolvimento social surgiram estas primeiras técnicas estatísticas: classificar, apresentar, interpretar os dados recolhidos foram para os censos e são para a Estatística um aspecto essencial do método utilizado. Mas, um longo caminho havia de ser percorrido até aos dias de hoje.
 Até ao início do séc. XVII, a Estatística limitou-se ao estudo dos “assuntos de Estado”. Usada pelas autoridades políticas na inventariação ou arrolamento dos recursos disponíveis, a Estatística limitava-se a uma simples técnica de contagem, traduzindo numericamente factos ou fenómenos observados – fase da Estatística Descritiva.
 No séc. XVII, com os “aritméticos políticos”, nomeadamente John Graunt (1620-1674) e Sir William Petty (1623-1687), inicia-se em Inglaterra uma nova fase de desenvolvimento da Estatística, virada para a análise dos fenómenos observados – fase da Estatística Analítica.
 John Graunt, comerciante londrino, “pessoa engenhosa e estudiosa, tinha o hábito de se levantar cedo para estudar, antes da abertura da sua loja”, inspirado nas tábuas de mortalidade que semanalmente se publicavam na sua paróquia, publicou, em 1660, um trabalho estatístico sobre a mortalidade dos habitantes de Londres, procurando dar interpretações sociais às listas de tempos de vida. Sir William Petty, baseado neste trabalho, escreveu um livro de largo sucesso, divulgando a nova ciência da “Aritmética Política”.
Em 1692, o astrónomo Edmund Halley (1658-1744), famoso pela descoberta do cometa de órbita elíptica que se aproxima da Terra de 75 em 75 anos, baseando-se também em listas de nascimento e falecimento, foi o percursor das actuais tabelas de mortalidade, base das anuidades dos seguros de vida.
O desenvolvimento do Cálculo das Probabilidades surge também no século XVII. A ligação das probabilidades com os conhecimentos estatísticos veio dar uma nova dimensão à Estatística, que progressivamente se foi tornando um instrumento científico poderoso e indispensável. Considera-se assim uma nova fase, a terceira, em que se começa a fazer inferência estatística: quando a partir de observações se procurou deduzir relações causais, entre variáveis, realizando-se previsões a partir daquelas relações.
A palavra Estatística surge, pela primeira vez, no séc. XVIII. Alguns autores  atribuem esta origem ao alemão Gottfried Achemmel (1719-1772), que teria utilizado pela primeira vez o termo statistik, do grego statizein; outros dizem ter origem na palavra estado, do latim status, pelo aproveitamento que dela tiravam os políticos e o Estado.
A partir do século XVIII são vários os nomes que se destacaram na história da evolução da estatística, tais como Quételet (1796-1874), Galton (1822-1911), Karl Pearson (1857-1936), Weldon (1860-1906), Ronald Fisher (1890-1962). Na sua origem, a Estatística estava ligada ao Estado. Hoje, não só se mantem  esta ligação, como todos os Estados e a sociedade em geral dependem cada vez mais dela. Por isso, em todos os Estados existe um Departamento ou Instituto Nacional de Estatística.
 Na actualidade, a Estatística já não se limita apenas ao estudo da Demografia e da Economia. O seu campo de aplicação alargou-se à análise de dados em Biologia, Medicina, Física, Psicologia, Indústria, Comércio, Meteorologia, Educação, etc., e ainda a domínios aparentemente desligados, como estrutura de linguagem e estudo de formas literárias.

A ESTATÍSTICA EM PORTUGAL

Os seguintes trabalhos são alguns dos que se conhecem desde a fundação da nacionalidade portuguesa:

·  Rol dos besteiros do conto de D. Afonso III (1260-1279);
·  Rol dos besteiros do conto de D. João I (1421-1422);
·  Numeramento de D. João III (1527);
·  Resenha da gente de guerra (1636);
·  Lista de fogos e almas que há nas terras de Portugal (1732);
·  Numeramento de 1798 ou de Pina Manique;
·  Recenseamento geral de 1801 ou do conde de Linhares.

Estes levantamentos estatísticos são apenas contagens ou recenseamentos não exaustivos da população. O I Recenseamento Geral da População, apoiado em princípios estatísticos credíveis, surgiu em 1864, sendo os seguintes realizados em 1878, 1890, 1900, 1911, 1920, 1925, 1930 quando passam a ser realizados de 10 em 10 anos até 1970, e depois passam a ser realizados em anos terminados em 1: 1981, 1991 e 2001.
Embora com objectivos sectoriais, desde 1755 existem em Portugal instituições que se dedicam a estudos estatísticos oficiais, das quais destacamos a Superintendência Geral dos Contrabandos e Descaminhos dos Reais Direitos (1775), conhecendo-se também a Real Junta do Comércio (1814) e a Secção de Estatística e Topografia (1841).
Só em 1935 se fundou o Instituto Nacional de Estatística (INE) que centraliza, até à actualidade, toda a actividade estatística oficial.

QUANDO A ESTATÍSTICA NOS ENGANA...

A Estatística é muito frequentemente pretexto para anedotas e caricaturas. Mas, tal como na primeira metade do século XX se pretendeu responsabilizar os físicos atómicos e nucleares pelas decisões políticas da utilização destes conhecimentos para efeitos de guerra, é a utilização abusiva e não a própria Estatística que gera absurdos e enganos frequentes.
 Uma acusação que frequentemente se faz à Estatística é a de induzir em erro, não só porque apresenta dados obtidos por procedimentos que podem ser questionados no seu rigor, mas também porque, apesar de serem correctos e obtidos por métodos válidos, esses dados podem ser apresentados de maneira a induzir confusão a quem não está especialmente familiarizado com esta linguagem. Desta forma, parece de extrema importância a capacidade de se detectar este tipo de confusões e, consequentemente, é imprescindível conhecê-las. Por outro lado, a análise e a procura de erros, desenvolvem a capacidade de observação e fomentam o sentido crítico.

Há três espécies de mentiras: mentiras, mentiras do caraças e Estatística.

Diz-se que dois tipos de estudos superiores deveriam contemplar na formação dos alunos o treino de como mentir bem: Estatística e Direito. Um estatístico deve, por um lado, saber detectar erros e abusos da análise estatística. Por outro lado, dada a importância da publicidade nos dias de hoje, deve também dominar a arte de torturar os dados de modo a que estes confessem o que se pretende.
Apresentamos, seguidamente, alguns exemplos de como a Estatística nos pode induzir em erro.

·       Amostras inadequadas

Uma primeira “mentira estatística” apresentada por Darrel Huff no seu livro How to lie with statistics consistiu no caso de uma sondagem aos britânicos para averiguar o grau de familiaridade com o sistema métrico. Uma sondagem efectuada pela Gallup concluía que 33% dos britânicos, mesmo com formação universitária, não fazia a menor ideia do que era o sistema métrico; em contrapartida, uma sondagem feita por um certo jornal de domingo, garantia, espantosamente, que 98% dos mesmos britânicos conhecia o sistema métrico.
Era demasiada diferença para que algo não estivesse muitíssimo errado. Estava identificada uma primeira classe de “erros” na recolha de informação: as amostragens não representativas. É que, enquanto a Gallup procurou cuidadosamente entrevistar um conjunto representativo de toda a população britânica, contemplando idades, níveis de instrução, sexo, diferente zonas geográficas, etc., o jornal, por razões de economia, decidiu publicar um cupão nas suas páginas e limitou-se a esperar as respostas espontâneas dos leitores.
É frequente, em televisão, solicitar aos espectadores que telefonem a dar a sua opinião relativamente a um determinado assunto. Num programa colocaram, a todo o território português, as seguintes questões:

1. Deve haver pagamento de propinas no ensino superior público?
2. Os hipermercados devem fechar aos domingos?
3. Deveríamos voltar a ter uma monarquia em Portugal?

Obtiveram-se estes resultados:

1. 50%-Sim, 50%-Não
2. 50%-Sim, 50%-Não
3. 93%-Sim, 7%-Não.

A apresentadora afirmou que 50% dos telespectadores achavam que deveria haver pagamento de propinas no ensino superior público. Estará esta afirmação correcta? Não necessariamente, pois não se sabe quem vota, pode até ter apenas havido dois votantes entre milhares de telespectadores, o que não é uma amostra válida.
As frases publicitárias do género "8 em cada 10 pessoas prefere o detergente X" podem muito bem ser baseadas em amostras de 10 pessoas cuidadosamente seleccionadas para dar aquele resultado.
  
·       Relatividade dos conceitos

Um outro erro corrente, involuntário ou deliberado, consiste no uso ambíguo de conceitos como o de média. Suponhamos que na Musgueira os salários médios (média aritmética) são de 70 000$00 e que, por uma muito hipotética e conveniente coincidência, um qualquer milionário teria comprado uma quinta no perímetro autárquico da Musgueira. Tanto bastaria, naturalmente, para que alguém pudesse refazer as contas dos vencimentos médios na Musgueira, que eventualmente subiriam para níveis invejáveis, por ventura ao nível de vencimentos de administradores de grandes empresas. E, se neste tipo de exemplos, as fontes de ilegitimidade são facilmente detectáveis, noutros, menos caricaturados, as manipulações são mais subterrâneas e difíceis de detectar.
Também a apresentação de percentagens sem clarificar a base de referência pode ser fortemente enganadora. Frases como “houve uma melhoria de 100% nos nossos serviços” procuram transmitir a ideia de qualidade, quando melhorar 100% sobre um serviço de péssima qualidade não é lá grande coisa.

·       Variáveis “enganadoras” 

Se quisermos investigar se determinados insectos são mais atraídos por umas cores que por outras, colocando armadilhas com funis de diversa cores em diversos pontos de árvores onde se encontram esses insectos, sem haver o cuidado de colocar as armadilhas de um modo aleatório e de proceder a experiências repetidas, com um planeamento apropriado, chegamos ao fim e não sabemos se o que atrai os insectos é a cor ou a exposição ao sol, a temperatura ou os diferentes odores que a coloração diferente dá às várias armadilhas.

·       Exactidão

No século XVI, o alemão Weirus fazia a seguinte afirmação estatística: «na terra vivem 7405926 demónios, divididos em 72 batalhões, cada um dos quais comandado por um príncipe ou capitão». Embora muita gente da época do Weirus aceitasse os cálculos deste como bastante aproximados, parece que Weirus pretendia ridicularizar as pessoas que não utilizam adequadamente os dados estatísticos. Contudo, noutras afirmações estatísticas, não é tão fácil descobrir as falsidades que elas possuem e haverá um interesse, mais claro e intencional, em enganar e confundir as pessoas que as lêem, do que o nosso especialista em demónios.
Da imprensa diária recolhemos as seguintes notícias: Durante a última quadra de Natal consumiram-se no país 4749683 Kg de açúcar. 67,129% dos consumidores de refresco preferiram a marca “Joi Laranja”. No ano passado os alunos do 10º ano do Ensino Secundário de Portugal, sofreram ao longo do ano um total de 17347821 provas de avaliação sumativa.
A exagerada precisão que se pretende dar aos dados relativos aos três exemplos, torna suspeita a sua autenticidade. Apesar dos dados estatísticos poderem ser correctos, a aproximação até às milésimas ou até ao último quilo de açúcar levanta dúvidas sobre o sistema de recolha de dados, induzindo a pensar que, o que se pretende na realidade com tal precisão, é dar a sensação de que foram obtidos através de uma fonte séria e bem documentada.

·       Uso de conjunções e de diferentes tipos de expressões

Surpreendente! Finalmente a solução para os seus problemas capilares: de todos os compradores do tónico capilar JUBA DE LEÃO, apenas 3% ficaram insatisfeitos e pediram o reembolso do dinheiro. Este problema é um exemplo da utilização proveitosa da conjunção “e”. O anúncio pode ser totalmente correcto, mas dá a impressão de que só existiram 3% de insatisfeitos, quando na realidade, essa percentagem reflecte o número de pessoas que, para além de estarem satisfeitas também efectuaram a respectiva reclamação.
A empresa de automóveis “DEVORA ESTRADAS” publicou um anúncio nos seguintes termos: “mais de 95% dos carros vendidos em Portugal, desde há vinte anos, ainda estão em circulação”.
A maneira como o anúncio aparece redigido, dá a sensação de existirem muitos automóveis daquele modelo (com 20 anos de idade) ainda a trabalharem. O que se passa é que a distribuição do número de automóveis não tem de ser uniforme. Poderia acontecer que quase todos os automóveis tivessem no máximo 5 anos. Inclusivamente, se o modelo em causa tivesse começado a ser fabricado há um ano, a afirmação publicitária estaria certa.
Considere a informação estatística seguinte:

"Os alunos do Ensino Secundário que se interessam por Estatística são apenas 37% do total."

A forma como aparece a informação estatística é um exemplo da combinação entre valores precisos e termos vagos, que necessitam uma maior concretização. Efectivamente, o valor 37% contrasta com o termo «interesse», que é genérico e indefinido.

·       Representação gráfica

É preciso ter particular atenção às representações gráficas, há vários tipos de erros:

- erros nas escalas através de intervalos desiguais;
- erros nas escalas através de deformação;
- não começar no zero e não o indicar;
- eliminação de dados especialmente reveladores;
- pictogramas com figuras não equivalentes.


RESUMO DA HISTÓRIA DA ESTATÍSTICA

A origem da palavra Estatística está associada à palavra latina STATUS (Estado). Há indícios de que 3000 anos A.C. já se faziam censos na Babilônia, China e Egito e até mesmo o 4o. livro do Velho Testamento faz referência à uma instrução dada a Moisés, para que fizesse um levantamento dos homens de Israel que estivessem aptos para guerrear. Usualmente, estas informações eram utilizadas para a taxação de impostos ou para o alistamento militar. O Imperador César Augusto, por exemplo, ordenou que se fizesse o Censo de todo o Império Romano.
A palavra "CENSO" é derivada da palavra "CENSERE", que em Latim significa "TAXAR". Em 1085, Guilherme, O Conquistador, solicitou um levantamento estatístico da Inglaterra, que deveria conter informações sobre terras, proprietários, uso da terra, empregados e animais. Os resultados deste Censo foram publicados em 1086 no livro intitulado "Domesday Book" e serviram de base para o cálculo de impostos.
Contudo, mesmo que a prática de coletar dados sobre colheitas, composição da população humana ou de animais, impostos, etc., fosse conhecida pelos egípcios, hebreus, caldeus e gregos, e se atribuam a Aristóteles cento e oitenta descrições de Estados, apenas no século XVII a Estatística passou a ser considerada disciplina autônoma, tendo como objetivo básico a descrição dos BENS do Estado.
A palavra Estatística foi cunhada pelo acadêmico alemão Gottfried Achenwall (1719-1772), que foi um notável continuador dos estudos de Hermann Conrig (1606-1681). A escola alemã atingiu sua maturidade com A. L. von Schlozer (1735-1809), mas sempre com idéias diferentes daquelas que fundamentaram a Estatística Moderna. Com algum exagero, pode-se dizer que o seu principal legado foi o termo "STAATENKUNDE", que deu origem à designação atual. Na Enciclopédia Britânica, o verbete "STATISTICS" apareceu em 1797.
Em contraposição à natureza eminentemente qualitativa da escola alemã, na Inglaterra do século XVII surgiram os aritméticos políticos, dentre os quais destacaram-se John Graunt (1620-1674) e William Petty (1623-1687). Eles preocuparam-se com o estudo numérico dos fenômenos sociais e políticos, na busca de leis quantitativas que pudessem explicá-los. O estudo consistia essencialmente de exaustivas análises de nascimentos e mortes, realizadas através das Tábuas de Mortalidade, que deram origem às atuais Tábuas de Mortalidade usadas pelas companhias de seguros. Um dos resultados mais importantes foi a constatação de que o percentual de nascimento de crianças do sexo masculino (51%) é levemente superior ao do sexo feminino (49%). Dessa forma, a escola dos aritméticos políticos pode ser considerada o berço da Demografia. Um de seus mais notáveis adeptos foi o pastor alemão Sussmilch (1707-1767), com o qual pode-se dizer que a Estatística aparece pela primeira vez como meio indutivo de investigação.
Na última metade do século XIX, os alemães Helmert (1843-1917) e Wilhelm Lexis (1837-1914), o dinamarquês Thorvald Nicolai Thiele (1838-1910) e o inglês Francis Ysidro Edgeworth (1845-1926), obtiveram resultados extremamente valiosos para o desenvolvimento da Inferência Estatística, muitos dos quais só foram completamente compreendidos mais tarde. Contudo, o impulso decisivo deve-se a Karl Pearson (1857-1936), William S. Gosset (1876-1937) e, em especial, a Ronald A. Fisher (1890-1962).
Karl Pearson (1857-1936) formou-se em 1879 pela Cambridge University e inicialmente dedicou-se ao estudo da evolução de Darwin, aplicando os métodos estatísticos aos problemas biológicos relacionados com a evolução e hereditariedade. Em 1896, Pearson foi eleito membro da Royal Society of London.
Entre 1893 e 1912 escreveu um conjunto de 18 artigos denominado Mathematical Contribution to the Theory Evolution, com contribuições extremamente importantes para o desenvolvimento da teoria da Análise de Regressão e do Coeficiente de Correlação, bem como do teste de hipóteses de qui-quadrado. Em sua maioria, seus trabalhos foram publicados na revista Biometrika, que fundou em parceria com Walter Frank Raphael Weldon (1860-1906) e Francis Galton (1822-1911). Além da valiosa contribuição que deu para a teoria da regressão e da correlação, Pearson fez com que a Estatística fosse reconhecida como uma disciplina autônoma. Uma coleção de seus artigos foi publicada em "Karl Pearson Early Statistical Papers" (Ed. por E. S. Pearson, Cambridge University Press, 1948). Para ver uma relação de alguns trabalhos publicados por Karl Pearson
William Sealey Gosset (1876-1937) estudou Química e Matemática na New College Oxford. Em 1899 foi contratado como Químico da Cervejaria Guiness em Dublin, desenvolvendo um trabalho extremamente importante na área de Estatística. Devido à necessidade de manipular dados provenientes de pequenas amostras, extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de Student baseado na distribuição de probabilidades.
Esses resultados foram publicados em 1908 na revista Biometrika, sob o pseudônimo de Student, dando origem a uma nova e importante fase dos estudos estatísticos. Gosset usava o pseudônimo de Student, pois a Cervejaria Guiness não desejava revelar aos concorrentes os métodos estatísticos que estava empregando no controle de qualidade da cerveja. Os estudos de Gosset podem ser encontrados em "Student Collected Papers" (Ed. por E.S.Pearson e J. Wishart, University College, Londres, 1942). Para ver uma relação de alguns trabalhos publicados por Gosset, clique neste link de referências bibliográficas.
A contribuição de Ronald Aylmer Fisher (1890-1962) para a Estatística Moderna é, sem dúvidas, a mais importante e decisiva de todas. Formado em astronomia pela Universidade de Cambridge em 1912, foi o fundador do célebre Statistical Laboratory da prestigiosa Estação Agronômica de Rothamsted, contribuindo enormemente tanto para o desenvolvimento da Estatística quanto da Genética. Ele apresentou os princípios de planejamento de experimentos, introduzindo os conceitos de aleatorização e da Análise da Variância, procedimentos muito usados atualmente.
No princípio dos anos 20, estabeleceu o que a maioria aceita como a estrutura da moderna Estatística Analítica, através do conceito da verossimilhança (likelihood, em inglês). O seu livro intitulado "Statistical Methods for Research Workers", publicado pela primeira vez em 1925, foi extremamente importante para familiarizar os investigadores com as aplicações práticas dos métodos estatísticos e, também, para criar a mentalidade estatística entre a nova geração de cientistas. Os trabalhos de Fisher encontram-se dispersos em numerosas revistas, mas suas contribuições mais importantes foram reunidas em "Contributions to Mathematical Statistics" (J. Wiley & Sons, Inc., Nova Iorque, 1950).
Fisher foi eleito membro da Royal Society em 1929 e condecorado com as medalhas Royal Medal of the Society e Darwin Medal of the Society em 1938 e em 1948, respectivamente. Em 1955 foi novamente condecorado, desta vez com a medalha Copley Medal of the Royal Society.
Outra área de investigação extremamente importante para o desenvolvimento da Estatística é a Teoria das Probabilidades. Usualmente, costuma-se atribuir a origem do Cálculo de Probabilidades às questões relacionadas aos jogos de azar que o célebre cavaleiro Méré (1607-1684) encaminhou à Blaise Pascal (1623-1662).
No entanto, outros autores sustentam que o Cálculo de Probabilidades teve a sua origem na Itália, com especial referência para Luca Pacioli (1445-1517), Girolamo Cardano (1501-1576), Nicolo Fontana Tartaglia (1500-1557) e Galileo Galilei (1564-1642).
Três anos depois de Pascal ter previsto que a "aliança do rigor geométrico" com a "incerteza do azar" daria lugar a uma nova ciência, Christiaan Huygens (1629-1695) publicou o trabalho denominado "De Raciociciis in Ludo Aleae", que é considerado o primeiro livro sobre o Cálculo de Probabilidades. Além disso, ainda teve a notável particularidade de introduzir o conceito de esperança matemática.
Gottfried Wilhelm von Leibniz (1646-1716) também dedicou-se ao estudo do Cálculo de Probabilidades, publicando um trabalho sobre a "arte combinatória" e outro sobre aplicações às questões financeiras. Leibniz também estimulou Jacques Bernoulli (1654-1705) ao estudo do Cálculo de Probabilidades, cuja grande obra, denominada "Ars Conjectandi", foi publicada oito anos após a sua morte.
Em Ars Conjectandi de Jacques Bernoulli, foi publicada e rigorosamente provada a Lei dos Grandes Números de Bernoulli, considerada o primeiro teorema limite. Pode-se dizer que graças às contribuições de Bernoulli o Cálculo de Probabilidades adquiriu o status de ciência.
Além da obra póstuma de Bernoulli, o início do século XVII foi marcado pelos livros de Pierre Rémond de Montmort (1678-1719), denominado "Essai d'Analyse sur les Jeux de Hazard", e de Abraham De Moivre (1667-1754), intitulado The Doctrine of Chances.
De Moivre era Francês de nascimento, mas desde a sua infância refugiou-se na Inglaterra devido às guerras religiosas, fazendo aplicações ao cálculo de anuidades e estabelecendo uma equação simples para a lei da mortalidade entre 22 anos e o limite da longevidade que fixou em 86 anos. Mais tarde, na "Miscellanea Analytica", apresentou resultados aos quais Laplace deu uma forma mais geral e que constituem o segundo teorema limite.
É extremamente importante falar, também, do reverendo Thomas Bayes (1702-1761) a quem se deve o conceito de probabilidade inversa, relacionado com situações em que se caminha do particular para o geral. No seu livro denominado "Essay towards solving a problem of the doctrine of chances" (Philosophical Transactions of the Royal Society of London, 1764-65, póstumo), Bayes formula através do teorema que leva seu nome e do postulado que tantas vezes se lhe associa: a primeira tentativa de matematização da inferência Estatística. Mesmo sem ter publicado nenhum trabalho com seu nome, em 1742 Thomas Bayes foi eleito membro da Royal Society of London.
Os estudos dos astrônomos Pierre-Simon Laplace (1749-1827), Johann Carl Friedrich Gauss (1777-1855) e Lambert Adolphe Jacques Quetelet (1796-1874) foram fundamentais para o desenvolvimento do Cálculo de Probabilidades. Devido aos novos métodos e idéias, o trabalho de Laplace de 1812, intitulado "Théorie Analytique des Probabilités", até o presente é considerado um dos mais importantes trabalhos sobre a matéria.
Johann Carl Friedrich Gauss, professor de astronomia e diretor do Observatório de Gottingen, em 1809 apresentou o estudo intitulado "Theoria combinationis Observatorium Erroribus Minimis Obnoxia", explanando uma teoria sobre a análise de observações aplicável a qualquer ramo da ciência, alargando o campo de aplicação do Cálculo de Probabilidades.
Com Lambert Adolphe Jacques Quetelet, por sua vez, inicia-se a aplicação aos fenômenos sociais. O seu escrito "Sur l'homme et le développement de ses facultés" foi publicado em segunda edição com o título "Physique sociale ou Essai sur le développement des facultés de l'homme", que incluía pormenorizada análise da teoria da probabilidade. Quetelet introduziu também o conceito de "homem médio" e chamou particular atenção para a notável consistência dos fenômenos sociais. Por exemplo, mostrou que fatores como a criminalidade apresentam permanências em relação a diferentes países e classes sociais.
Antoine Augustin Cournot (1801-1877) percebeu a importância da Teoria das probabilidades na análise estatística, tendo sido o pioneiro no tratamento matemático dos fenômenos econômicos. Suas idéias foram publicadas em "Exposition de la théorie des chances et des probabilités".
Na segunda metade do século XIX a Teoria das Probabilidades atingiu um dos pontos mais altos com os trabalhos da escola russa fundada por Pafnuty Lvovich Chebyshev (1821-1894), que contou com representantes como Andrei Andreyevich Markov (1856-1922) e Aleksandr Mikhailovich Lyapunov (1857-1918).
Contudo, o seu maior expoente foi Andrey Nikolayevich Kolmogorov (1903-1987), a quem se deve um estudo indispensável sobre os fundamentos da Teoria das Probabilidades, denominado "Grundbegrife der Warscheinlichkeitrechnung", publicado em 1933. Em 1950 foi traduzido para o Inglês sob o título "Foundations of Probability".


 



Um comentário:

  1. Só Deus me trouxe a esta página. Que informação linda e recheada! É esta informação que preciso.
    Obrigado pelo trabalho.

    ResponderExcluir

Sintam-se à vontade para enriquecer a participação nesse blog com seus comentários. Após análise dos mesmos, fornecer-lhe-ei um feedback simples.