Blog “Ciências Exatas Contemporâneas”, de autoria de Álaze Gabriel.
Disponível em http://cienciasexatascontemporaneas.blogspot.com.br/
UM PASSEIO SOBRE A EVOLUÇÃO DA ESTATÍSTICA NOS
ÚLTIMOS ANOS
Antigamente: a expressão
"estatística" advinha da palavra latina STATUS (Estado), por estar
diretamente relacionada a serviços estatísticos estatais, os existentes na
época;
Hoje: Estatística = Ciência + Tecnologia
+ Arte; a) Ciência: tem identidade própria com um grande número de
técnicas deduzidas de princípios básicos; b) Tecnologia: sua metodologia pode
ser implantada num sistema operacional para manter um nível desejado de
performance; c) Arte: depende da razão indutiva e não está livre de
controvérsias.
RESUMO CRONOLÓGICO DA ESTATÍSTICA
AEC (antes da Era Comum, conhecida pelo período
anterior ao nascimento de Jesus Cristo)
5000 AEC -- Registros egípcios de presos
de guerra Registros egípcios de presos de guerra;
3000 AEC - Jogos de Dados;
2000 AEC -- Censo Chinês;
1500 AEC -- Dados de mortos em guerras no
Velho Testamento;
1600 AEC -- matriz aumentada e eliminação
Gaussiana (manuscrito chinês);
1100 AEC -- Registros de dados em livros
da Dinastia Chinesa;
585 AEC -- Thales de Mileto usa a
geometria dedutiva;
540 AEC -- Pitágoras (Aritmética e Geometria);
430 AEC -- Philolaus obtém dados de
Astronomia e Hippocrates Philolaus estuda doenças a partir da coleta de dados;
400 AEC -- Estabelecido o Censo Romano;
310 AEC – Descrição detalhada como os
dados deveriam ser coletados em livros de Constantinopla;
300 AEC -- Elementos de
Euclides;
250 AEC -- Estudos Avançados na Aritmética
Diophantus;
180 AEC -- Origem de Dados Circulares
(Hypsicles);
140 AEC -- Surge a Trigonometria com
Hipparchus;
120 AEC -- Menelaus apresenta tabelas
estatísticas cruzadas;
EC (Era Comum, conhecida pelo nascimento
de Jesus Cristo)
100 AEC -- Horácio usa um ábaco de fichas
instrumento de “cálculo portátil”;
300 EC -- Desenvolvimento da álgebra;
400 EC -- Desenvolvimento da teoria dos
números;
470 EC -- Valor de pi por Tsu Chung;
620 EC -- Surge em Constantinopla um
Primeiro Bureau de Estatística que existiu até 680;
695 EC -- Primeira utilização da média
ponderada pelos árabes na contagem de moedas;
775 EC -- Trabalhos estatísticos hindus
são traduzidos para o árabe;
800 EC – Algoritmo (Ben Musa);
826 EC -- Os árabes usam cálculos
estatísticos tomada de Creta;
830 EC – AlKhwarizmi desenvolve a álgebra;
840 EC -- O astrônomo persa Yahyâ Abî
Mansûr apresenta tabelas astronômicas amplas;
1202 EC -- Sequência de Fibonacci;
1303 EC - Origem dos Números Combinatórios
(Shihchieh Chu);
1405 EC -- O persa Ghiyat Kâshî realiza os
primeiros cálculos de probabilidade com a fórmula do binômio de p;
1447 EC -- Surgem as primeiras tabelas de
mortalidade construídas pelos sábios do Islã;
1530 EC – Lotto de Firenze, Primeira
Loteria Pública;
1543 EC -- Progressão Geométrica (Stifel);
1550 EC -- Número Combinatório (Cardano);
1572 EC -- Origem dos números complexos
(Bombelli);
1591 EC -- Solução de uma equação cúbica
(Viète);
1593 EC – Fórmula de Viète param π;
1614 EC -- Napier cria os logaritmos;
1620 EC -- Descartes descobre a Geometria
Analítica;
1629 EC -- Método de Máximo e Mínimo e
Teoria dos (Pierre de Fermat);
1654 EC – Pierre de Fermat e Blaise Pascal
estabelecem os Princípios do Cálculo das Probabilidades;
1656 EC -- Huygens publica o primeiro
tratado de Probabilidade;
1660 EC -- Fundação da Royal Society
of London;
1662 EC -- Primeiros estudos demográficos
(Graunt) e Origem da Palavra Estocástico;
1665 EC -- Expansão do Binômio e Origem do
Cálculo (Newton) -- Modelo de Leibniz (precursor teórico da computação);
1670 EC -- Fórmula de Interpolação de
Gregory e Último Teorema de Fermat;
1676 EC -- Derivada e Teorema Fundamental
do Cálculo (Leibniz);
1679 EC – Distribuição de Pascal, Tratado
do Triângulo Aritmético e conceito do Valor Esperado (Pascal);
1684 EC -- Leibniz desenvolve o Cálculo
Diferencial e Integral;
1685 EC -- Método de Newton-Raphson
(John Wallis);
1687 EC -- Princípios Matemáticos da Filosofia
Natural (Newton);
1693 EC -- Edmund Halley publica tabelas
de mortalidade e cria os fundamentos da Atuária;
1694 EC -- Regra de L Hospital (Johann
Bernoulli);
1702 EC -- Logaritmos Complexos (James
Bernoulli);
1707 EC -- Fórmula de D Fórmula de
D´´Moivre Moivre;
1713 EC -- Distribuição Binomial (James
Bernoulli);
1715 EC -- Teorema de Taylor;
1718 EC -- D´´Moivre publica “The
Doctrine of Chances”;
1727 EC -- Número “e” de Euler;
1730 EC -- Distribuição Normal (D´´Moivre)
e Fórmula de Stirling;
1733 EC – Teorema do Limite
Central(D´Moivre);
1736 EC -- Início da teoria dos grafos
(Euler);
1738 EC -- Medição do Risco (Daniel
Bernoulli);
1741 EC – Início da Demografia
(Sussmilch);
1742 EC -- Expansão de Taylor (Brook
Taylor);
1748 EC -- Fórmula do Produto (função zeta
em termos de potências dos primos) e Identidade de Euler, 1º Uso do termo
“Estatística”;
1749 EC -- Método Método Minimax
(Euler);
1750 EC – Teorema dos Números Pentagonais
(Euler) e Regra de Cramér;
1753 EC -- Solução Geral da Equação da
Onda (Bernoulli);
1756 EC -- Distribuições Discretas
uniforme e do isósceles (Simpson);
1763 EC -- Inferência Bayesiana (Thomas
Bayes;
1764 EC – Probabilidade Condicional e
Teorema de Bayes;
1765 EC -- Distribuição Contínua
Semi--Circular (Lambert);
1774 EC -- Teoria da Estimação e
Distribuições normal e exponencial dupla (Laplace);
1775 EC -- William Morgan se torna o
Primeiro Atuário;
1776 EC -- Distribuições Contínuas
Uniforme e Parabólica (Lagrange), Expansão de Laplace;
1777 EC -- Primeiro exemplo de uso da
verossimilhança na estimação de parâmetro (Daniel Bernoulli);
1779 EC -- Geometria Analítica (Horsley);
1782 EC -- Quadrado Latino (Euler);
1786 EC -- Gráfico de Barras (Playfair) e
Limite (Huilier);
1795 EC -- Fatoração de Cholesky, Método
dos Mínimos Quadrados (Gauss) e Fómula de Interpolação de Lagrange;
1797 EC -- Funções Analíticas (Lagrange) e
o verbete aparece na Enciclopédia Britânica;
1799 EC -- Mecânica Celeste (Laplace);
1800 EC -- A França estabelece o seu
Bureau de Estatística;
1801 EC -- Determinante (Gauss);
1804 EC – Análise de dados da órbita do
Halley (Bessel);
1805 EC -- Método dos Mínimos Quadrados
(Legendre;
1807 EC -- Séries de Fourier;
1809 EC – Distribuição Normal e Publicação
do Método dos Mínimos Quadrados no Livro de Mecânica Celeste (Gauss);
1810 EC – Teorema Central do Limite
(Laplace);
1812 EC -- Théorie Analytique des
Probabilités (Laplace);
1816 EC -- Função Inversa (Lacroix);
1820 EC -- Várias sociedades de
Estatística são criadas;
1821 EC -- Demonstração do que se chama
hoje Teorema de Demonstração de Gauss;
1822 EC -- Séries de Fourier;
1826 EC -- Princípio da Dualidade
(Poncelet);
1827 EC -- Movimento Browniano;
1831 EC -- Teoria Geral das Equações de
Galois;
1834 EC -- Primeiro Computador Analítico
(Charles Babbage) e Fundação do Journal of the Royal Statistical Society;
Computador Mecânico de Charles Babbage;
1835 EC -- Lei dos Grandes Números
(Poisson);
1836 EC -- Distribuição Gama;
1837 EC -- Distribuição de Poisson;
1839 EC -- Fundação da American
Statistical Association (ASA);
1846 EC -- Uso de Quantis (Quetelet);
1848 EC – Range (Lloyd);
1850 EC -- Conceitos de matriz e menor
(Sylvester);
1852 EC – Jacobiano (Sylvester);
1853 EC -- Distribuição de Cauchy e
Primeira Internacional de Estatística em Bruxellas (Quetelet);
1858 EC – Artur Cayley cria o Cálculo;
1859 EC -- Desigualdade de Cauchy e Função
Zeta com argumentos complexos (Riemann);
1879 EC -- Posto de uma matriz
(Frobenius);
1860 EC -- Polinômios de Chebyshev –
Hermite;
1861 EC -- Matriz Aumentada (Smith);
1863 EC -- Distribuição Qui--Quadrado
(Abbé);
1864 EC -- Distribuição de Hermite;
1865 EC – Entropia (Clausius);
1867 EC -- Desigualdade de Chebyshev;
1868 EC -- Origem do Termo Resíduo
(Watson);
1869 EC – Genialidade Hereditária
(Galton);
1871 EC – Notas em Hospitais (Florence
Nightingale) e Função de Erro (Glaisher);
1873 EC -- Determinação experimental de pi
e prova por Hermite que “e” é transcendental;
1875 EC -- Número Índice (Jevons);
1876 EC – Primeiro uso de Método do tipo
Monte Carlo (Forest);
1877 EC -- Processo AR(1) (Galton);
1879 -- Distribuição Log Normal
(McAlister), Super Normal (McAlister), Dispersão de Dados (Lexis) e Posto de
uma matriz (Frobenius);
1880 EC -- Distribuição de Rayleigh, Produto
escalar (Gibbs);
1882 EC – Prova que pi é transcendental
por Lindemann;
1883 EC -- Ortogonalização de Gram;
1885 EC -- Fundação do ISI;
1887 EC -- Teoria da Regressão (Galton) e
Índice de Marshall;
1889 EC -- Princípios da Lógica Indutiva
(Venn) e Cumulante (Thiele);
1890 EC – Equações paramétricas de uma
curva (Peano);
1892 EC -- Coeficiente de Correlação
(Edgeworth);
1894 EC -- Método de Momentos e desvio
padrão (Karl Pearson);
1895 EC -- Distribuição de Frequência,
Sistema de Distribuições, Distribuição Assimétrica e Coeficiente de Variação
(K. Pearson);
1896 EC – Métodos de Captura e Recaptura
(Peterson);
1897 EC – Distribuição de Pareto e Erro
Padrão (Yule);
1898 EC – Correções de Sheppard;
1899 EC – Curva Normal Padrão (Sheppard);
1900 EC – Teste Qui-Quadrado (K.
Pearson),Cadeias de Markov, Coeficiente de Associação (Yule) e Combinação
Linear (Hill);
1901 EC – Fundação da Biometrika (Pearson,
Weldon e Galton);
1902 EC – Matriz Adjunta (Dickson) e
Teoria da integração de Lebesgue;
1903 EC – Semi-Invariantes ou Cumulantes
(Thiele);
1904 EC – Análise Fatorial Autovalor
(Hilbert), Expansão de Edgeworth, Coeficiente de Contingência (K. Pearson) e
Correlação de Posto (Spearman);
1905 EC – Curva de Lorenz, Curtose e
Passeio Aleatório (K. Pearson);
1906 EC – Cálculo Funcional (Fréchet),
Desigualdade de Jensen e Diagrama de Dispersão (Pearson);
1907 EC – Matriz Singular (Bôcher);
1908 EC – Distribuição t de Student,
distribuição amostral do coeficente de correlação (William Gosset) e Análise
Fatorial (Spearman);
1909 EC -- Problema da Ruína (Coolidge);
1910 EC --Integal de Stieltjes (Lebesgue)
Integal de Stieltjes (Lebesgue);
1912 EC -- Método de Máxima
Verossimilhança (Ronald Fisher) e Método de Máxima Verossimilhança
(Ronald Fisher) e Índice de Gini;
1913 EC -- Primeiro Teorema da Teoria dos
Jogos (E. Zermelo), Bureau de Estatísticas do Trabalho dos EUA e
Desigualdade de Markov;
1914 EC -- Método do Mínimo Qui--Quadrado
(Yule);
1916 EC -- Variável Aleatória (Cantelli);
1917 EC -- Fórmula do Atraso de Erlang;
1918 EC – Definição formal de Variância em
um artigo de Genética (Fisher) e Distribuição de von Mises;
1919 EC -- Espaço Amostral (von Mises);
1921 EC -- Informação, Graus de Liberdade
e Suficiência (Fisher), Probabilidade Lógica (Keynes);
1922 EC -- Definição de Verossimilhança,
Consistência e Eficiência (Fisher) e Prova Rigorosa do Teorema Central do
Limite (Lindeberg);
1923 EC -- Tabela ANOVA (Fisher) e
Processo de Wiener;
1924 EC -- Desigualdade de Bernstein;
1925 EC -- Método escore para parâmetros,
definição de testes de hipóteses em “Statistical Methods for Research Workers”
(Fisher);
1926 EC -- Planejamento de Experimentos
(Fisher), Conceito de Hipótese Alternativa (Gosset) e Correlação Serial
(Yule);
1928 EC -- Distribuição de Wishart,
Distribuições Não Distribuição de Wishart, Distribuições Não--Centrais (Fisher),
Centrais (Fisher), Intervalos de Confiança, Razão de Verossimilhanças, Erros
tipo I e tipo II e Poder dos Testes (Neyman & Pearson);
1929 EC -- Estatísticas k (Fisher) e
Função de Sobrevivência (Lotka);
1930 EC – Controle de Qualidade nas
indústrias Inferência Fiducial (Fisher), Distância de Mahalanobis, Tempo Médio
de Espera na Fila M/G/1 (Pollaczek) e Fundação da Econometria;
1931 EC -- Definição de Espaço Amostral
(von Mises) e Cartas Controle de Qualidade (Shewhart);
1932 EC -- Distribuição de Gumbel e
Processo Estocástico (Kolmogorov);
1933 EC -- Lema de Neyman & Pearson,
Distância de Kolmogorov, Componentes Principais (Hotteling),
Autocorrelação (Davis), Fundamentos de Probabilidade (Kolmogorov);
1934 EC -- Quadrado Grego-Latino (Fisher e
Yates), Estatística Ancilar, Família Exponencial e Princípios da
Verossimilhança (Fisher), Teorema de Cochran, Distribuição F(Snedecor) e
Análise de Confluência (Frisch);
1935 EC -- Correlação Canônica
(Hotteling), Curva de Mortalidade--Dosagem (Bliss), Formulação Matemática da
Família Exponencial (Darmois), Valor Extremo (Gumbel), Exponencial (Darmois);
1936 EC -- Verossimilhança Marginal e
Condicional (Bartlett), Desigualdades de Bonferroni, Função Suporte
(Jeffreys) e Estatística de Smirnov;
1937 EC – Inferência e Não Inferência
Não-Paramétrica (Pitman), Teoria das Regiões de Confiança (Pitman), Expansão de
Cornish--Fisher, Correção de Bartlett e Ensaios Clínicos Aleatorizados
(Hill);
1938 EC -- Distribuição Assintótica da
Razão de Verossimilhanças (Wilks) e Processo Autoregressivo (Yule);
1939 EC -- Distribuição de Weibull, início
dos Métodos Bayesianos (Jeffreys), Função de Risco e Teoria da Decisão (Wald);
1940 EC -- Invenção do Computador
Eletrônico e Teoria da Renovação (Brown);
1943 EC -- Modelo de Equações Simultâneas
(Haavelmo); Primeiro Computador Eletro;
1944 EC -- Surgem as Técnicas de Monte
Carlo;
1945 EC – Planos Amostrais (Mahalanobis),
Desigualdade de Planos Amostrais (Mahalanobis), Desigualdade de
Cramér--Rao, Teorema de Rao--Blackwell, Testes Blackwell, Testes
Sequenciais (Wald) e Teste de Wilcoxon;
1946 EC – Condições de Regularidade do EMV
(Cramér), Distribuição a Gama (Bartlett e Kendall), Distribuição a
priori de Jeffreys e Estatísticas U e V (Halmos);
1947 EC -- Aditividade em ANOVA
(Eisenhart), Distribuição Normal Inversa e Métodos Sequenciais (Wald),
Estatística escore (Rao), Modelos Exponenciais de Estatística escore
(Rao), Modelos Exponenciais de Dispersão (Tweedie), Método Simplex
(Dantzig) e Teste de Mann--Whitney Whitney;
1948 EC – Inteligência Artificial
(Turing), Eficiência Assintótica e Cibernética (Wiener);
1949 EC -- Método de Linearização,
Eficiência em Grandes Amostras (Neyman) e Teste de Aditividade de Tukey;
1950 EC -- Teoria Estatística de Decisão
(Wald), Teorema de Lehmann-Scheffé, Termo Bayesiano entra em circulação
(Fisher) Scheffé, Teste de Durbin--Watson;
1951 EC -- Informação de Kullback-Leibler,
Modelo de Regressão Hetero—cedástico, Testes Não-Paramétricos de Lehmann ,Teste
de cedástico, Teste de Kolmogorov--Smirnov, Teorema de Kuhn Smirnov, Teorema de
Kuhn--Tucker, Primeiro Computador Tucker, Primeiro Computador Comercial
instalado no Bureau de Censo dos EUA;
1952 EC -- Estatística de
Anderson--Darling e Teste de Kruskal--Wallis Wallis;
1953 EC -- Método de amostragem que
envolvia Cadeias de Markov (Metropolis et. al.) e Inferência Robusta (Box);
1954 EC -- Aproximações Ponto de Sela
(Daniels) e Carta CUSUM (Page);
1955 EC -- Completude e Regiões Similares
(Lehmann e Scheffé) e Inversa Generalizada (Penrose), Teste de Aleatoriedaade
(Box e Andersen);
1956 EC -- Método Jackknife (Quenouille);
1957 EC -- Programação Dinâmica (Bellman);
1958 EC -- Estimador de Kaplan, Fator de
Bayes (Good) e Origem da palavra Software (Tukey);
1959 EC -- Estudo restrospectivo de
doenças (Mantel & Haenszel);
1960 EC -- Inferência em modelos de espaço
de estados (Kalman) e Comparação Estocástica (Bahadur);
1961 EC -- Famílias Separadas de Hipóteses
(Cox) e Filtro de Kalman;
1962 EC -- Princípios de Inferência
(Birnbaum);
1964 EC -- Modelos de Box e Cox e
Estimação Robusta (Huber);
1965 EC – Início do E Mail (MIT);
1967 EC -- Caso Multivariado da Expansão
de Edgeworh (Chambers);
1968 EC -- Inferência Estrutural (Fraser),
Matriz Hat (Tukey);
1970 EC -- Modelos ARMA (Box &
Jenkins) e Modelos Log-Lineares, Lineares, Generalização do Método de
Metropolis (Hastings) e Regressão Rígida (Hoerl e Kennard);
1971 EC – EDA (Tukey);
1972 EC -- Modelo de Riscos Proporcionais
(Cox) e os Modelos Lineares Generalizados (Nelder & Wedderburn);
1973 EC -- Critério da Informação de
Akaike;
1974 EC - Quase--Verossimilhança
(Wedderburn);
1975 EC -- Curvatura Estatística (Efron),
Verossimilhança Parcial (Cox) e Teoria da Catástrofe (René Thom);
1976 EC -- Enfoque Bayesiano em Modelos de
Espaço de Estados (Harrison e Stevens);
1977 EC -- Análise Estatística de Formas
(Kendall), Análise Exploratória de Dados e Distribuições (Tukey),
Algoritmo EM (Dempster, Laird e Rubin), Árvores de Regressão (Friedman), EMV em
pequenas amostras (Bowman & Shenton) e TEX (Knuth);
1979 EC -- Método Bootstrap (Efron) e
Verossimilhança Preditiva (Mathiasen);
1980 EC -- Aproximações Ponto de Sela para
Soma Estocástica (Lugannani e Rice) e Teste de White;
1981 EC -- Surgimento do IBM--PC e
Estimadores M (Huber);
1982 EC – Distribuição Secante, Hiperbólia
Generalizada (Morris), Modelos ARCH (Engle) e Redes Neurais (Hopfield);
1983 EC – Fórmula p* e verossimilhança
perfilada (Barndorff-Nielsen);
1984 EC – Amostrador de Gibbs (Geman &
Geman);
1985 EC -- Modelos para Análise de Dados
Longitudinais, Inferência Pivotal (Barnard) e Cálculo de π com 17 milhões
de dígitos;
1986 EC -- GEE (Equações de Estimação
Generalizadas) de Liange Zeger, Modelos Aditivos Generalizados e Modelos GARCH
(Bollerslev);
1987 EC -- Definição de Yoke (Barndorff
Definição de Yok Nielsen) e Modelos de Dispersão (Jorgensen);
1988 EC -- Modelos KDD (“Knowledge
Discovery in Databases”), Modelos Dinâmicos (West e Harrison), Verossimilhança
Empírica (Owen), CC (Gf 1990 1990 -- Métodos MCMCno contexto Bayesiano
(Gelfand e Smith), Mineração de Dados (“Data Mining”), Projeto Genoma Humano,
Teoria da Perturbação Estocástica (Stewart);
1991 EC -- Computação Neural (Hertz, Krogh
e Palmer) e Mínimos Quadrados Total (Van Huffel e Vandewalle);
1995 EC -- Modelos Multiníveis
(Goldstein);
1996 EC – Profundidade da Regressão
(Rousseeuw e Hubert) e site de busca google (Brin e Page);
1997 EC – Modelos Fatoriais;
2001 EC -- 100 anos da Biometria;
2002 EC – Cálculo de π com 51
bilhões de dígitos.
HISTÓRIA DA ESTATÍSTICA NO BRASIL
1953 EC -- Criação do Bacharelado de
Estatística da ENCE (ENCE foi fundada em 6 de março de 1953);
1955 EC -- Fundação da RBRAS em Campinas;
1957 EC -- 1º Colóquio Brasileiro de
Matemática;
1964 EC4 -- Mestrado em Estatística e
Experimentação Agronômica da ESALQ;
1967 EC -- Bacharelado em Estatística da
UFRJ;
1968 EC -- Bacharelado em Estatística na
UFPE;
1969 EC -- Fundação da SOBRAPO e da SMB
(7º CBM) ;
1970 EC -- Criação do Departamento de
Estatística da USP e Primeiros Doutores em Estatística formados no
exterior;
1971 EC -- Primeiros Mestres em
Estatística do Brasil (USP);
1972 EC – Bacharelado em Estatística
na USP;
1973 EC -- Bacharelado em Estatística na
UNICAMP;
1974 EC -- Primeiro SINAPE na UFRJ,
Transferência do Curso de Estatística da FEA para o IM/UFRJ;
1975 EC -- Mestrado em Matemática Aplicada
(Estatística) no IMPA;
1976 EC -- Criação do Departamento de
Estatística da UFMG, Início do Bacharelado em Estatística da UFSCar e 2º SINAPE
na UNICAMP;
1977 EC -- Início do Mestrado em
Estatística da UNICAMP e Primeiro Doutor em Estatística do Brasil (24/6,
IME/USP);
1978 EC -- 3º SINAPE na USP, Fundação da
SBMAC (ICE/UFMG), Bacharelado em Estatística da UFMG e UFRGS, Mestrado em
Estatística da UFMG, da UFRGS e da UFRJ;
1979 EC -- Doutorado em Estatística e
Experimentação Agronômica na ESALQ e Criação da SBE durante o 1º EBE
(Atibaia SP);
1980 EC -- Primeira Dissertação de
Mestrado em Estatística na UFRJ;
1981 EC -- Primeiro Número do Brazilian
Review of Econometrics;
1983 EC – Criação do Departamento de
Estatística da UFPE;
1984 EC -- Fundação da ABE durante o 5º
SINAPE na UFRJ e Início do Bacharelado em Estatística da UFBA;
1985 EC – 1ª Escola de Séries Temporais e
Econometria (ESTE) do Brasil;
1986 EC -- Fundação do BJPS (REBRAPE);
1987 EC -- Primeiro Número do BJPS;
1989 EC -- Primeira Escola de Modelos de
Regressão (EMR) e fundação da Associação Brasileira de Estatística (fundada em
7 de setembro de 1984);
1994 EC -- Início do Mestrado em
Estatística da UFPE;
1996 EC – Mestrado em Estatística da UFMG;
1998 EC – Mestrado em Estudos
Populacionais e Pesquisas Sociais na ENCE;
1999 EC -- Mestrado em Estatística da
UFSCar;
2001 EC – Abertura do Doutorado em
Estatística da UFRJ e Curso de Ciências Atuariais na UFMG;
2002 EC -- Prêmio ABE;
2004 EC -- 20 anos da ABE (16º
SINAPE, Caxambú);
2005 EC – Doutorados em Estatística da
UNICAMP e UFMG e 50 anos da RBRAS (Londrina);
2006 EC -- Doutorado em Estatística da
UFSCar, Mestrado em Matemática Aplicada da UFRN;
2007 EC -- Doutorado em Estatística da
UFPE e 90 anos do Prof. Pompeu Memória;
2008 EC -- 18º SINAPE, Mestrado em
Estatística na UnB, XIX ENESTE;
2009 EC – 11ª EMR (Recife), Fórum dos 30
anos da Estatística da UFMG, 54ª RBRAS e 13º SEAGRO;
2010 EC -- X EBEB, EBP, 19º SINAPE, 25
anos na UFF, APSM, 55ª RBRAS/IBC;
2011 EC – 12ª EMR (Fortaleza), ESTE (RGS);
O QUE É A ESTATÍSTICA?
Mais correntemente, Estatística significa
enumeração ou informação numérica habitualmente contida em tabelas ou gráficos.
Quando se fala em Estatística pensa-se em censos, inventários, amostras ou médias.
Em sentido restrito tudo isso se pode considerar uma Estatística.
Num sentido mais lato, Estatística é a
ciência que se ocupa da recolha e tratamento de informação. Tem como objectivo
analisar os dados recolhidos, descrevendo-os e organizando-os para posterior
interpretação e eventual utilização na previsão de acontecimentos futuros.
A Estatística divide-se em dois ramos
distintos: a Estatística Descritiva, responsável pelo estudo das
características de uma dada população; e a Estatística Indutiva, que generaliza
um conjunto de resultados, tendo por base uma amostra de uma dada população ou
universo, enunciando a(s) consequente(s) lei(s).
EVOLUÇÃO HISTÓRICA DA ESTATÍSTICA
As necessidades que exigiam o conhecimento
numérico dos recursos disponíveis começaram a surgir quando as sociedades
primitivas se organizaram. Os Estados, desde tempos remotos, precisaram
conhecer determinadas características da população, efectuar a sua contagem e
saber a sua composição ou os seus rendimentos.
Para que os governantes das grandes
civilizações antigas tivessem conhecimento dos bens que o Estado possuía e como
estavam distribuídos pelos habitantes, realizaram-se as primeiras estatísticas,
nomeadamente para determinarem leis sobre impostos e números de homens
disponíveis para combater. Estas estatísticas, eram frequentemente limitadas à
população adulta masculina.
O primeiro dado disponível sobre um
levantamento estatístico foi referido por Heródoto, que afirmava ter-se efectuado
em 3050 a. C. um estudo das riquezas da população do Egipto com a finalidade de
averiguar quais os recursos humanos e económicos disponíveis para a construção
das pirâmides.
Há também notícia de que no ano 2238 a. C.
se realizou um levantamento estatístico com fins industriais e comerciais
ordenado pelo imperador chinês Yao. Existem indícios, que constam da Bíblia,
relativamente a recenseamentos feitos por Moisés (1490 a.C.). Outra estatística
referida pelos investigadores foi feita no ano 1400 a. C., quando Ramsés II
mandou realizar um levantamento das terras do Egipto. Também os romanos faziam
o recenseamento dos cidadãos e dos bens. Eram os censores,
magistrados romanos, que asseguravam o censo dos cidadãos.
Uma das convenções da História é ligar a
datação (a.C. ou d.C.) ao recenseamento populacional ordenado pelo imperador
César Augusto. As estatísticas realizadas por Pipino, em 758, e por Carlos
Magno, em 762, sobre as terras que eram propriedade da Igreja, são algumas das
estatísticas importantes de que há referências desde a queda do império romano.
Guilherme, “O Conquistador”, que reinou
entre 1066 e 1087, ordenou que se fizesse um levantamento estatístico da
Inglaterra. Este levantamento deveria incluir informações sobre terras,
proprietários, uso da terra, animais... e serviria de base, também, para o
cálculo de impostos.
Para responder ao desenvolvimento
social surgiram estas primeiras técnicas estatísticas: classificar, apresentar,
interpretar os dados recolhidos foram para os censos e são para a Estatística
um aspecto essencial do método utilizado. Mas, um longo caminho havia de ser
percorrido até aos dias de hoje.
Até ao início do séc. XVII, a
Estatística limitou-se ao estudo dos “assuntos de Estado”. Usada pelas autoridades
políticas na inventariação ou arrolamento dos recursos disponíveis, a
Estatística limitava-se a uma simples técnica de contagem, traduzindo
numericamente factos ou fenómenos observados – fase da Estatística Descritiva.
No séc. XVII, com os “aritméticos
políticos”, nomeadamente John Graunt (1620-1674) e Sir William Petty
(1623-1687), inicia-se em Inglaterra uma nova fase de desenvolvimento da
Estatística, virada para a análise dos fenómenos observados – fase da
Estatística Analítica.
John Graunt, comerciante londrino,
“pessoa engenhosa e estudiosa, tinha o hábito de se levantar cedo para estudar,
antes da abertura da sua loja”, inspirado nas tábuas de mortalidade que
semanalmente se publicavam na sua paróquia, publicou, em 1660, um trabalho estatístico
sobre a mortalidade dos habitantes de Londres, procurando dar interpretações
sociais às listas de tempos de vida. Sir William Petty, baseado neste
trabalho, escreveu um livro de largo sucesso, divulgando a nova ciência da
“Aritmética Política”.
Em 1692, o astrónomo Edmund Halley
(1658-1744), famoso pela descoberta do cometa de órbita elíptica que se
aproxima da Terra de 75 em 75 anos, baseando-se também em listas de nascimento
e falecimento, foi o percursor das actuais tabelas de mortalidade, base das
anuidades dos seguros de vida.
O desenvolvimento do Cálculo das
Probabilidades surge também no século XVII. A ligação das probabilidades com os
conhecimentos estatísticos veio dar uma nova dimensão à Estatística, que
progressivamente se foi tornando um instrumento científico poderoso e
indispensável. Considera-se assim uma nova fase, a terceira, em que se começa a
fazer inferência estatística: quando a partir de observações se procurou
deduzir relações causais, entre variáveis, realizando-se previsões a partir
daquelas relações.
A palavra Estatística surge,
pela primeira vez, no séc. XVIII. Alguns autores atribuem esta origem ao
alemão Gottfried Achemmel (1719-1772), que teria utilizado pela primeira vez o
termo statistik,
do grego statizein; outros dizem ter origem na palavra estado, do latim status,
pelo aproveitamento que dela tiravam os políticos e o Estado.
A partir do século XVIII são vários os
nomes que se destacaram na história da evolução da estatística, tais como
Quételet (1796-1874), Galton (1822-1911), Karl Pearson (1857-1936), Weldon
(1860-1906), Ronald Fisher (1890-1962). Na sua origem, a Estatística estava
ligada ao Estado. Hoje, não só se mantem esta ligação, como todos os
Estados e a sociedade em geral dependem cada vez mais dela. Por isso, em todos
os Estados existe um Departamento ou Instituto Nacional de Estatística.
Na actualidade, a Estatística já não
se limita apenas ao estudo da Demografia e da Economia. O seu campo de
aplicação alargou-se à análise de dados em Biologia, Medicina, Física,
Psicologia, Indústria, Comércio, Meteorologia, Educação, etc., e ainda a
domínios aparentemente desligados, como estrutura de linguagem e estudo de
formas literárias.
A ESTATÍSTICA EM PORTUGAL
Os seguintes trabalhos são alguns dos que
se conhecem desde a fundação da nacionalidade portuguesa:
· Rol dos besteiros do conto de
D. Afonso III (1260-1279);
· Rol dos besteiros do conto de
D. João I (1421-1422);
· Numeramento de D. João III
(1527);
· Resenha da gente de guerra (1636);
· Lista de fogos e almas que há
nas terras de Portugal (1732);
· Numeramento de 1798 ou de
Pina Manique;
· Recenseamento geral de 1801
ou do conde de Linhares.
Estes levantamentos estatísticos são
apenas contagens ou recenseamentos não exaustivos da população. O I
Recenseamento Geral da População, apoiado em princípios estatísticos credíveis,
surgiu em 1864, sendo os seguintes realizados em 1878, 1890, 1900, 1911, 1920,
1925, 1930 quando passam a ser realizados de 10 em 10 anos até 1970, e depois
passam a ser realizados em anos terminados em 1: 1981, 1991 e 2001.
Embora com objectivos sectoriais, desde
1755 existem em Portugal instituições que se dedicam a estudos estatísticos
oficiais, das quais destacamos a Superintendência Geral dos Contrabandos e Descaminhos
dos Reais Direitos (1775), conhecendo-se também a Real Junta do Comércio (1814)
e a Secção de Estatística e Topografia (1841).
Só em 1935 se fundou o Instituto
Nacional de Estatística
(INE) que centraliza, até à actualidade, toda a actividade estatística oficial.
QUANDO A ESTATÍSTICA NOS ENGANA...
A Estatística é muito frequentemente
pretexto para anedotas e caricaturas. Mas, tal como na primeira metade do
século XX se pretendeu responsabilizar os físicos atómicos e nucleares pelas
decisões políticas da utilização destes conhecimentos para efeitos de guerra, é
a utilização abusiva e não a própria Estatística que gera absurdos e enganos
frequentes.
Uma acusação que frequentemente se
faz à Estatística é a de induzir em erro, não só porque apresenta dados obtidos
por procedimentos que podem ser questionados no seu rigor, mas também porque,
apesar de serem correctos e obtidos por métodos válidos, esses dados podem ser
apresentados de maneira a induzir confusão a quem não está especialmente
familiarizado com esta linguagem. Desta forma, parece de extrema importância a
capacidade de se detectar este tipo de confusões e, consequentemente, é
imprescindível conhecê-las. Por outro lado, a análise e a procura de erros, desenvolvem
a capacidade de observação e fomentam o sentido crítico.
Há três espécies de mentiras: mentiras, mentiras
do caraças e Estatística.
Diz-se que dois tipos de estudos
superiores deveriam contemplar na formação dos alunos o treino de como mentir
bem: Estatística e Direito. Um estatístico deve, por um lado, saber detectar
erros e abusos da análise estatística. Por outro lado, dada a importância da
publicidade nos dias de hoje, deve também dominar a arte de torturar os dados
de modo a que estes confessem o que se pretende.
Apresentamos, seguidamente, alguns
exemplos de como a Estatística nos pode induzir em erro.
·
Amostras inadequadas
Uma primeira “mentira estatística”
apresentada por Darrel Huff no seu livro How to lie with
statistics consistiu no caso de uma sondagem aos britânicos para averiguar
o grau de familiaridade com o sistema métrico. Uma sondagem efectuada pela
Gallup concluía que 33% dos britânicos, mesmo com formação universitária, não
fazia a menor ideia do que era o sistema métrico; em contrapartida, uma
sondagem feita por um certo jornal de domingo, garantia, espantosamente, que
98% dos mesmos britânicos conhecia o sistema métrico.
Era demasiada diferença para que algo não
estivesse muitíssimo errado. Estava identificada uma primeira classe de “erros”
na recolha de informação: as amostragens não representativas. É que, enquanto a
Gallup procurou cuidadosamente entrevistar um conjunto representativo de toda a
população britânica, contemplando idades, níveis de instrução, sexo, diferente
zonas geográficas, etc., o jornal, por razões de economia, decidiu publicar um
cupão nas suas páginas e limitou-se a esperar as respostas espontâneas dos
leitores.
É frequente, em televisão, solicitar aos
espectadores que telefonem a dar a sua opinião relativamente a um determinado
assunto. Num programa colocaram, a todo o território português, as seguintes
questões:
1. Deve haver pagamento de propinas no
ensino superior público?
2. Os hipermercados devem fechar aos
domingos?
3. Deveríamos voltar a ter uma monarquia
em Portugal?
Obtiveram-se estes resultados:
1. 50%-Sim, 50%-Não
2. 50%-Sim, 50%-Não
3. 93%-Sim, 7%-Não.
A apresentadora afirmou que 50% dos
telespectadores achavam que deveria haver pagamento de propinas no ensino
superior público. Estará esta afirmação correcta? Não necessariamente, pois não
se sabe quem vota, pode até ter apenas havido dois votantes entre milhares de
telespectadores, o que não é uma amostra válida.
As frases publicitárias do género "8
em cada 10 pessoas prefere o detergente X" podem muito bem ser baseadas em
amostras de 10 pessoas cuidadosamente seleccionadas para dar aquele resultado.
·
Relatividade dos conceitos
Um outro erro corrente, involuntário ou
deliberado, consiste no uso ambíguo de conceitos como o de média. Suponhamos
que na Musgueira os salários médios (média aritmética) são de 70 000$00 e
que, por uma muito hipotética e conveniente coincidência, um qualquer
milionário teria comprado uma quinta no perímetro autárquico da Musgueira.
Tanto bastaria, naturalmente, para que alguém pudesse refazer as contas dos
vencimentos médios na Musgueira, que eventualmente subiriam para níveis
invejáveis, por ventura ao nível de vencimentos de administradores de grandes
empresas. E, se neste tipo de exemplos, as fontes de ilegitimidade são
facilmente detectáveis, noutros, menos caricaturados, as manipulações são mais
subterrâneas e difíceis de detectar.
Também a apresentação de percentagens sem
clarificar a base de referência pode ser fortemente enganadora. Frases como
“houve uma melhoria de 100% nos nossos serviços” procuram transmitir a ideia de
qualidade, quando melhorar 100% sobre um serviço de péssima qualidade não é lá
grande coisa.
·
Variáveis “enganadoras”
Se quisermos investigar se determinados
insectos são mais atraídos por umas cores que por outras, colocando armadilhas
com funis de diversa cores em diversos pontos de árvores onde se encontram
esses insectos, sem haver o cuidado de colocar as armadilhas de um modo aleatório
e de proceder a experiências repetidas, com um planeamento apropriado, chegamos
ao fim e não sabemos se o que atrai os insectos é a cor ou a exposição ao sol,
a temperatura ou os diferentes odores que a coloração diferente dá às várias
armadilhas.
·
Exactidão
No século XVI, o alemão Weirus fazia a
seguinte afirmação estatística: «na terra vivem 7405926 demónios, divididos em
72 batalhões, cada um dos quais comandado por um príncipe ou capitão». Embora
muita gente da época do Weirus aceitasse os cálculos deste como bastante
aproximados, parece que Weirus pretendia ridicularizar as pessoas que não
utilizam adequadamente os dados estatísticos. Contudo, noutras afirmações
estatísticas, não é tão fácil descobrir as falsidades que elas possuem e haverá
um interesse, mais claro e intencional, em enganar e confundir as pessoas que
as lêem, do que o nosso especialista em demónios.
Da imprensa diária recolhemos as seguintes
notícias: Durante a última quadra de Natal consumiram-se no país 4749683 Kg de
açúcar. 67,129% dos consumidores de refresco preferiram a marca “Joi Laranja”. No
ano passado os alunos do 10º ano do Ensino Secundário de Portugal, sofreram ao
longo do ano um total de 17347821 provas de avaliação sumativa.
A exagerada precisão que se pretende dar
aos dados relativos aos três exemplos, torna suspeita a sua autenticidade.
Apesar dos dados estatísticos poderem ser correctos, a aproximação até às
milésimas ou até ao último quilo de açúcar levanta dúvidas sobre o sistema de
recolha de dados, induzindo a pensar que, o que se pretende na realidade com
tal precisão, é dar a sensação de que foram obtidos através de uma fonte séria
e bem documentada.
·
Uso de conjunções e de diferentes
tipos de expressões
Surpreendente! Finalmente a solução para
os seus problemas capilares: de todos os compradores do tónico capilar JUBA DE
LEÃO, apenas 3% ficaram insatisfeitos e pediram o reembolso do dinheiro. Este
problema é um exemplo da utilização proveitosa da conjunção “e”. O anúncio pode
ser totalmente correcto, mas dá a impressão de que só existiram 3% de
insatisfeitos, quando na realidade, essa percentagem reflecte o número de
pessoas que, para além de estarem satisfeitas também efectuaram a respectiva
reclamação.
A empresa de automóveis “DEVORA ESTRADAS”
publicou um anúncio nos seguintes termos: “mais de 95% dos carros vendidos em
Portugal, desde há vinte anos, ainda estão em circulação”.
A maneira como o anúncio aparece redigido,
dá a sensação de existirem muitos automóveis daquele modelo (com 20 anos de
idade) ainda a trabalharem. O que se passa é que a distribuição do número de
automóveis não tem de ser uniforme. Poderia acontecer que quase todos os
automóveis tivessem no máximo 5 anos. Inclusivamente, se o modelo em causa
tivesse começado a ser fabricado há um ano, a afirmação publicitária estaria
certa.
Considere a informação estatística
seguinte:
"Os alunos do Ensino Secundário que
se interessam por Estatística são apenas 37% do total."
A forma como aparece a informação
estatística é um exemplo da combinação entre valores precisos e termos vagos,
que necessitam uma maior concretização. Efectivamente, o valor 37% contrasta
com o termo «interesse», que é genérico e indefinido.
·
Representação gráfica
É preciso ter particular atenção às
representações gráficas, há vários tipos de erros:
- erros nas escalas através de intervalos
desiguais;
- erros nas escalas através de deformação;
- não começar no zero e não o indicar;
- eliminação de dados especialmente
reveladores;
- pictogramas com figuras não
equivalentes.
RESUMO
DA HISTÓRIA DA ESTATÍSTICA
A
origem da palavra Estatística está associada à palavra latina STATUS (Estado).
Há indícios de que 3000 anos A.C. já se faziam censos na Babilônia, China e
Egito e até mesmo o 4o. livro do Velho Testamento faz referência à uma
instrução dada a Moisés, para que fizesse um levantamento dos homens de Israel
que estivessem aptos para guerrear. Usualmente, estas informações eram
utilizadas para a taxação de impostos ou para o alistamento militar. O
Imperador César Augusto, por exemplo, ordenou que se fizesse o Censo de todo o
Império Romano.
A
palavra "CENSO" é derivada da palavra "CENSERE", que em
Latim significa "TAXAR". Em 1085, Guilherme, O Conquistador,
solicitou um levantamento estatístico da Inglaterra, que deveria conter
informações sobre terras, proprietários, uso da terra, empregados e animais. Os
resultados deste Censo foram publicados em 1086 no livro intitulado
"Domesday Book" e serviram de base para o cálculo de impostos.
Contudo,
mesmo que a prática de coletar dados sobre colheitas, composição da população
humana ou de animais, impostos, etc., fosse conhecida pelos egípcios, hebreus,
caldeus e gregos, e se atribuam a Aristóteles cento e oitenta descrições de
Estados, apenas no século XVII a Estatística passou a ser considerada
disciplina autônoma, tendo como objetivo básico a descrição dos BENS do Estado.
A
palavra Estatística foi cunhada pelo acadêmico alemão Gottfried Achenwall
(1719-1772), que foi um notável continuador dos estudos de Hermann Conrig
(1606-1681). A escola alemã atingiu sua maturidade com A. L. von Schlozer
(1735-1809), mas sempre com idéias diferentes daquelas que fundamentaram a
Estatística Moderna. Com algum exagero, pode-se dizer que o seu principal
legado foi o termo "STAATENKUNDE", que deu origem à designação atual.
Na Enciclopédia Britânica, o verbete "STATISTICS" apareceu em 1797.
Em
contraposição à natureza eminentemente qualitativa da escola alemã, na
Inglaterra do século XVII surgiram os aritméticos políticos, dentre os quais
destacaram-se John Graunt (1620-1674) e William Petty (1623-1687). Eles
preocuparam-se com o estudo numérico dos fenômenos sociais e políticos, na
busca de leis quantitativas que pudessem explicá-los. O estudo consistia
essencialmente de exaustivas análises de nascimentos e mortes, realizadas
através das Tábuas de Mortalidade, que deram origem às atuais Tábuas de
Mortalidade usadas pelas companhias de seguros. Um dos resultados mais
importantes foi a constatação de que o percentual de nascimento de crianças do
sexo masculino (51%) é levemente superior ao do sexo feminino (49%). Dessa
forma, a escola dos aritméticos políticos pode ser considerada o berço da
Demografia. Um de seus mais notáveis adeptos foi o pastor alemão Sussmilch
(1707-1767), com o qual pode-se dizer que a Estatística aparece pela primeira
vez como meio indutivo de investigação.
Na
última metade do século XIX, os alemães Helmert (1843-1917) e Wilhelm Lexis
(1837-1914), o dinamarquês Thorvald Nicolai Thiele (1838-1910) e o inglês
Francis Ysidro Edgeworth (1845-1926), obtiveram resultados extremamente valiosos
para o desenvolvimento da Inferência Estatística, muitos dos quais só foram
completamente compreendidos mais tarde. Contudo, o impulso decisivo deve-se a
Karl Pearson (1857-1936), William S. Gosset (1876-1937) e, em especial, a
Ronald A. Fisher (1890-1962).
Karl
Pearson (1857-1936) formou-se em 1879 pela Cambridge University e inicialmente
dedicou-se ao estudo da evolução de Darwin, aplicando os métodos estatísticos
aos problemas biológicos relacionados com a evolução e hereditariedade. Em
1896, Pearson foi eleito membro da Royal Society of London.
Entre
1893 e 1912 escreveu um conjunto de 18 artigos denominado Mathematical
Contribution to the Theory Evolution, com contribuições extremamente
importantes para o desenvolvimento da teoria da Análise de Regressão e do
Coeficiente de Correlação, bem como do teste de hipóteses de qui-quadrado. Em
sua maioria, seus trabalhos foram publicados na revista Biometrika, que fundou
em parceria com Walter Frank Raphael Weldon (1860-1906) e Francis Galton
(1822-1911). Além da valiosa contribuição que deu para a teoria da regressão e
da correlação, Pearson fez com que a Estatística fosse reconhecida como uma
disciplina autônoma. Uma coleção de seus artigos foi publicada em "Karl
Pearson Early Statistical Papers" (Ed. por E. S. Pearson, Cambridge
University Press, 1948). Para ver uma relação de alguns trabalhos publicados
por Karl Pearson
William
Sealey Gosset (1876-1937) estudou Química e Matemática na New College Oxford.
Em 1899 foi contratado como Químico da Cervejaria Guiness em Dublin,
desenvolvendo um trabalho extremamente importante na área de Estatística.
Devido à necessidade de manipular dados provenientes de pequenas amostras,
extraídas para melhorar a qualidade da cerveja, Gosset derivou o teste t de
Student baseado na distribuição de probabilidades.
Esses
resultados foram publicados em 1908 na revista Biometrika, sob o pseudônimo de
Student, dando origem a uma nova e importante fase dos estudos estatísticos.
Gosset usava o pseudônimo de Student, pois a Cervejaria Guiness não desejava
revelar aos concorrentes os métodos estatísticos que estava empregando no
controle de qualidade da cerveja. Os estudos de Gosset podem ser encontrados em
"Student Collected Papers" (Ed. por E.S.Pearson e J. Wishart, University
College, Londres, 1942). Para ver uma relação de alguns trabalhos publicados
por Gosset, clique neste link de referências bibliográficas.
A
contribuição de Ronald Aylmer Fisher (1890-1962) para a Estatística Moderna é,
sem dúvidas, a mais importante e decisiva de todas. Formado em astronomia pela
Universidade de Cambridge em 1912, foi o fundador do célebre Statistical
Laboratory da prestigiosa Estação Agronômica de Rothamsted, contribuindo
enormemente tanto para o desenvolvimento da Estatística quanto da Genética. Ele
apresentou os princípios de planejamento de experimentos, introduzindo os
conceitos de aleatorização e da Análise da Variância, procedimentos muito
usados atualmente.
No
princípio dos anos 20, estabeleceu o que a maioria aceita como a estrutura da
moderna Estatística Analítica, através do conceito da verossimilhança
(likelihood, em inglês). O seu livro intitulado "Statistical Methods for
Research Workers", publicado pela primeira vez em 1925, foi extremamente
importante para familiarizar os investigadores com as aplicações práticas dos
métodos estatísticos e, também, para criar a mentalidade estatística entre a
nova geração de cientistas. Os trabalhos de Fisher encontram-se dispersos em
numerosas revistas, mas suas contribuições mais importantes foram reunidas em
"Contributions to Mathematical Statistics" (J. Wiley & Sons,
Inc., Nova Iorque, 1950).
Fisher
foi eleito membro da Royal Society em 1929 e condecorado com as medalhas Royal
Medal of the Society e Darwin Medal of the Society em 1938 e em 1948, respectivamente.
Em 1955 foi novamente condecorado, desta vez com a medalha Copley Medal of the
Royal Society.
Outra
área de investigação extremamente importante para o desenvolvimento da
Estatística é a Teoria das Probabilidades. Usualmente, costuma-se atribuir a
origem do Cálculo de Probabilidades às questões relacionadas aos jogos de azar
que o célebre cavaleiro Méré (1607-1684) encaminhou à Blaise Pascal
(1623-1662).
No
entanto, outros autores sustentam que o Cálculo de Probabilidades teve a sua
origem na Itália, com especial referência para Luca Pacioli (1445-1517),
Girolamo Cardano (1501-1576), Nicolo Fontana Tartaglia (1500-1557) e Galileo
Galilei (1564-1642).
Três
anos depois de Pascal ter previsto que a "aliança do rigor geométrico"
com a "incerteza do azar" daria lugar a uma nova ciência, Christiaan
Huygens (1629-1695) publicou o trabalho denominado "De Raciociciis in Ludo
Aleae", que é considerado o primeiro livro sobre o Cálculo de
Probabilidades. Além disso, ainda teve a notável particularidade de introduzir
o conceito de esperança matemática.
Gottfried
Wilhelm von Leibniz (1646-1716) também dedicou-se ao estudo do Cálculo de
Probabilidades, publicando um trabalho sobre a "arte combinatória" e
outro sobre aplicações às questões financeiras. Leibniz também estimulou
Jacques Bernoulli (1654-1705) ao estudo do Cálculo de Probabilidades, cuja
grande obra, denominada "Ars Conjectandi", foi publicada oito anos
após a sua morte.
Em
Ars Conjectandi de Jacques Bernoulli, foi publicada e rigorosamente provada a
Lei dos Grandes Números de Bernoulli, considerada o primeiro teorema limite.
Pode-se dizer que graças às contribuições de Bernoulli o Cálculo de
Probabilidades adquiriu o status de ciência.
Além
da obra póstuma de Bernoulli, o início do século XVII foi marcado pelos livros
de Pierre Rémond de Montmort (1678-1719), denominado "Essai d'Analyse sur
les Jeux de Hazard", e de Abraham De Moivre (1667-1754), intitulado The
Doctrine of Chances.
De
Moivre era Francês de nascimento, mas desde a sua infância refugiou-se na
Inglaterra devido às guerras religiosas, fazendo aplicações ao cálculo de
anuidades e estabelecendo uma equação simples para a lei da mortalidade entre
22 anos e o limite da longevidade que fixou em 86 anos. Mais tarde, na
"Miscellanea Analytica", apresentou resultados aos quais Laplace deu
uma forma mais geral e que constituem o segundo teorema limite.
É
extremamente importante falar, também, do reverendo Thomas Bayes (1702-1761) a
quem se deve o conceito de probabilidade inversa, relacionado com situações em
que se caminha do particular para o geral. No seu livro denominado "Essay
towards solving a problem of the doctrine of chances" (Philosophical
Transactions of the Royal Society of London, 1764-65, póstumo), Bayes formula
através do teorema que leva seu nome e do postulado que tantas vezes se lhe
associa: a primeira tentativa de matematização da inferência Estatística. Mesmo
sem ter publicado nenhum trabalho com seu nome, em 1742 Thomas Bayes foi eleito
membro da Royal Society of London.
Os
estudos dos astrônomos Pierre-Simon Laplace (1749-1827), Johann Carl Friedrich
Gauss (1777-1855) e Lambert Adolphe Jacques Quetelet (1796-1874) foram
fundamentais para o desenvolvimento do Cálculo de Probabilidades. Devido aos
novos métodos e idéias, o trabalho de Laplace de 1812, intitulado "Théorie
Analytique des Probabilités", até o presente é considerado um dos mais
importantes trabalhos sobre a matéria.
Johann
Carl Friedrich Gauss, professor de astronomia e diretor do Observatório de
Gottingen, em 1809 apresentou o estudo intitulado "Theoria combinationis
Observatorium Erroribus Minimis Obnoxia", explanando uma teoria sobre a
análise de observações aplicável a qualquer ramo da ciência, alargando o campo
de aplicação do Cálculo de Probabilidades.
Com
Lambert Adolphe Jacques Quetelet, por sua vez, inicia-se a aplicação aos
fenômenos sociais. O seu escrito "Sur l'homme et le développement de ses
facultés" foi publicado em segunda edição com o título "Physique
sociale ou Essai sur le développement des facultés de l'homme", que
incluía pormenorizada análise da teoria da probabilidade. Quetelet introduziu
também o conceito de "homem médio" e chamou particular atenção para a
notável consistência dos fenômenos sociais. Por exemplo, mostrou que fatores
como a criminalidade apresentam permanências em relação a diferentes países e
classes sociais.
Antoine
Augustin Cournot (1801-1877) percebeu a importância da Teoria das
probabilidades na análise estatística, tendo sido o pioneiro no tratamento matemático
dos fenômenos econômicos. Suas idéias foram publicadas em "Exposition de
la théorie des chances et des probabilités".
Na
segunda metade do século XIX a Teoria das Probabilidades atingiu um dos pontos
mais altos com os trabalhos da escola russa fundada por Pafnuty Lvovich
Chebyshev (1821-1894), que contou com representantes como Andrei Andreyevich
Markov (1856-1922) e Aleksandr Mikhailovich Lyapunov (1857-1918).
Contudo,
o seu maior expoente foi Andrey Nikolayevich Kolmogorov (1903-1987), a quem se
deve um estudo indispensável sobre os fundamentos da Teoria das Probabilidades,
denominado "Grundbegrife der Warscheinlichkeitrechnung", publicado em
1933. Em 1950 foi traduzido para o Inglês sob o título "Foundations of
Probability".