Como o censo levou à computação moderna

Como o censo levou à computação moderna



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

O censo existe desde o início dos Estados Unidos, o que significava que toda a população tinha que ser contada manualmente. Até que um inventor viu um caminho melhor a seguir.


Uma breve história do Big Data

Big Data foi descrito por alguns especialistas em gerenciamento de dados (com uma risadinha) como “quantidades enormes, opressivas e incontroláveis ​​de informações”. Em 1663, John Graunt também lidou com “quantidades avassaladoras de informação”, enquanto estudava a peste bubônica, que atualmente assolava a Europa. Graunt usou estatísticas e é considerado a primeira pessoa a usar a análise de dados estatísticos. No início de 1800, o campo das estatísticas se expandiu para incluir a coleta e análise de dados.

A evolução do Big Data inclui uma série de etapas preliminares para sua fundação e, embora olhar para trás para 1663 não seja necessário para o crescimento dos volumes de dados hoje, permanece o ponto de que "Big Data" é um termo relativo dependendo de quem está discutindo isto. Big Data para Amazon ou Google é muito diferente do Big Data para uma seguradora de médio porte, mas não menos “Big” na mente de quem está em conflito com ele.

Essas etapas fundamentais para a concepção moderna de Big Data envolvem o desenvolvimento de computadores, smartphones, a internet e equipamentos sensoriais (Internet das Coisas) para fornecer dados. Os cartões de crédito também desempenharam um papel, fornecendo quantidades cada vez maiores de dados, e certamente as mídias sociais mudaram a natureza dos volumes de dados de maneiras novas e ainda em desenvolvimento. A evolução da tecnologia moderna está entrelaçada com a evolução do Big Data.

Os fundamentos do Big Data

Os dados se tornaram um problema para o U.S. Census Bureau em 1880. Eles estimaram que levaria oito anos para lidar e processar os dados coletados durante o censo de 1880 e previram que os dados do censo de 1890 levariam mais de 10 anos para serem processados. Felizmente, em 1881, um jovem que trabalhava para o bureau, chamado Herman Hollerith, criou a Máquina de Tabulação Hollerith. Sua invenção foi baseada nos cartões perfurados projetados para controlar os padrões tecidos por teares mecânicos. Sua máquina de tabulação reduziu dez anos de trabalho em três meses de trabalho.

Em 1927, Fritz Pfleumer, um engenheiro austríaco-alemão, desenvolveu um meio de armazenar informações magneticamente em fita. Pfleumer inventou um método para colar faixas de metal em papéis de cigarro (para evitar que os lábios de um fumante fiquem manchados com os papéis disponíveis na época) e decidiu que poderia usar essa técnica para criar uma faixa magnética, que poderia então ser usada para substituir a tecnologia de gravação com fio. Depois de experiências com uma variedade de materiais, ele se decidiu por um papel muito fino, listrado com pó de óxido de ferro e revestido com laca, para sua patente em 1928.

Durante a Segunda Guerra Mundial (mais especificamente em 1943), os britânicos, desesperados para decifrar os códigos nazistas, inventaram uma máquina que fazia a varredura em busca de padrões em mensagens interceptadas dos alemães. A máquina se chamava Colossus e fazia a varredura de 5.000 caracteres por segundo, reduzindo a carga de trabalho de semanas para apenas horas. Colossus foi o primeiro processador de dados. Dois anos depois, em 1945, John Von Neumann publicou um artigo sobre o Computador Eletrônico Discreto Variável Automático (EDVAC), a primeira discussão “documentada” sobre armazenamento de programas e lançou as bases da arquitetura de computador hoje.

Diz-se que esses eventos combinados levaram à criação “formal” dos Estados Unidos & # 8217 NSA (National Security Agency), pelo presidente Truman, em 1952. A equipe da NSA foi designada a tarefa de descriptografar mensagens interceptadas durante a Guerra Fria. Os computadores dessa época evoluíram a ponto de poderem coletar e processar dados, operando de forma independente e automática.

O efeito Internet e computadores pessoais

A ARPANET começou em 29 de outubro de 1969, quando uma mensagem foi enviada do computador host da UCLA & # 8217s para o computador host da Stanford & # 8217s. Recebeu financiamento da Agência de Projetos de Pesquisa Avançada (ARPA), uma subdivisão do Departamento de Defesa. De um modo geral, o público não tinha conhecimento da ARPANET. Em 1973, conectou-se a um satélite transatlântico, ligando-o ao Norwegian Sismic Array. No entanto, em 1989, a infraestrutura da ARPANET começou a envelhecer. O sistema não era tão eficiente ou tão rápido quanto as redes mais recentes. As organizações que usam a ARPANET começaram a migrar para outras redes, como a NSFNET, para melhorar a eficiência básica e a velocidade. Em 1990, o projeto ARPANET foi encerrado, devido a uma combinação de idade e obsolescência. A criação da ARPANET levou diretamente à Internet.

Em 1965, o governo dos EUA construiu o primeiro data center, com a intenção de armazenar milhões de conjuntos de impressões digitais e declarações de impostos. Cada registro foi transferido para fitas magnéticas, e deveriam ser retirados e armazenados em um local central. Teóricos da conspiração expressaram seus medos e o projeto foi encerrado. No entanto, apesar de seu encerramento, esta iniciativa é geralmente considerada o primeiro esforço de armazenamento de dados em grande escala.

Os computadores pessoais chegaram ao mercado em 1977, quando os microcomputadores foram introduzidos, e se tornaram um grande trampolim na evolução da Internet e, posteriormente, do Big Data. Um computador pessoal poderia ser usado por um único indivíduo, ao contrário dos computadores mainframe, que exigiam uma equipe operacional ou algum tipo de sistema de compartilhamento de tempo, com um grande processador sendo compartilhado por vários indivíduos. Após a introdução do microprocessador, os preços dos computadores pessoais baixaram significativamente e passaram a ser descritos como "um bem de consumo acessível". Muitos dos primeiros computadores pessoais foram vendidos como kits eletrônicos, projetados para serem construídos por amadores e técnicos. Eventualmente, os computadores pessoais forneceriam às pessoas em todo o mundo acesso à Internet.

Em 1989, um cientista da computação britânico chamado Tim Berners-Lee criou o conceito de World Wide Web. A Web é um lugar / espaço de informação onde os recursos da web são reconhecidos por meio de URLs, interligados por links de hipertexto, e é acessível através da Internet. Seu sistema também permitia a transferência de áudio, vídeo e fotos. Seu objetivo era compartilhar informações na Internet por meio de um sistema de hipertexto. No outono de 1990, Tim Berners-Lee, trabalhando para o CERN, havia escrito três comandos básicos de TI que são a base da web de hoje:

  • HTML: Linguagem de marcação de hipertexto. A linguagem de formatação da web.
  • URL: Localizador padrão de recursos. Um “endereço” único usado para identificar cada recurso na web. Também é chamado de URI (Uniform Resource Identifier).
  • HTTP: Protocolo de Transferência de Hipertexto. Usado para recuperar recursos vinculados de toda a web.

Em 1993, o CERN anunciou que a World Wide Web seria gratuita para todos desenvolverem e usarem. A parte gratuita foi um fator-chave no efeito que a Web teria sobre as pessoas do mundo. (São as empresas que fornecem a “conexão à Internet” que nos cobram uma taxa).

A Internet das Coisas (IoT)

O conceito de Internet das Coisas recebeu seu nome oficial em 1999. Em 2013, a IoT havia evoluído para incluir várias tecnologias, usando a Internet, comunicações sem fio, sistemas microeletromecânicos (MEMS) e sistemas incorporados. Todos eles transmitem dados sobre a pessoa que os usa. Automação (incluindo edifícios e residências), GPS e outros apoiam a IoT.

A Internet das Coisas, infelizmente, pode tornar os sistemas de computador vulneráveis ​​a hackers. Em outubro de 2016, os hackers danificaram grande parte da Internet usando a IoT. A resposta inicial foi desenvolver o aprendizado de máquina e a inteligência artificial com foco em questões de segurança.

Poder da computação e crescimento da Internet

Houve um crescimento incrível da Internet na década de 1990 e os computadores pessoais tornaram-se cada vez mais poderosos e flexíveis. O crescimento da Internet foi baseado nos esforços de Tim Berners-Lee & # 8217s, no acesso gratuito do Cern & # 8217s e no acesso a computadores pessoais individuais.

Em 2005, o Big Data, que era usado sem nome, foi rotulado por Roger Mougalas. Ele se referia a um grande conjunto de dados que, na época, era quase impossível de gerenciar e processar usando as ferramentas tradicionais de business intelligence disponíveis. Além disso, o Hadoop, que podia lidar com Big Data, foi criado em 2005. O Hadoop foi baseado em uma estrutura de software de código aberto chamada Nutch e foi fundido com o MapReduce do Google. Hadoop é uma estrutura de software de código aberto e pode processar dados estruturados e não estruturados, de quase todas as fontes digitais. Por causa dessa flexibilidade, o Hadoop (e suas estruturas irmãs) pode processar Big Data.

Armazenamento de Big Data

O armazenamento magnético é atualmente um dos métodos mais baratos de armazenamento de dados. Fritz Pfleumer & # 8217s 1927 conceito de linhas magnéticas listradas foi adaptado a uma variedade de formatos, variando de fita magnética, tambores magnéticos, disquetes e unidades de disco rígido. O armazenamento magnético descreve qualquer armazenamento de dados baseado em um meio magnetizado. Ele usa as duas polaridades magnéticas, Norte e Sul, para representar um zero ou um, ou liga / desliga.

O armazenamento de dados em nuvem se tornou bastante popular nos últimos anos. A primeira nuvem verdadeira apareceu em 1983, quando a CompuServe ofereceu a seus clientes 128K de espaço de dados para armazenamento pessoal e privado. Em 1999, a Salesforce ofereceu Software-as-a-service (SaaS) em seu site. Melhorias técnicas na Internet, combinadas com custos decrescentes de armazenamento de dados, tornaram mais econômico para empresas e indivíduos usar a nuvem para fins de armazenamento de dados. Isso economiza para as organizações o custo de compra, manutenção e, eventualmente, substituição de seu sistema de computador. A nuvem oferece uma escalabilidade quase infinita e pode ser acessada em qualquer lugar, a qualquer hora, e oferece uma variedade de serviços.

Os usos do Big Data

O Big Data está revolucionando setores inteiros e mudando a cultura e o comportamento humanos. É o resultado da era da informação e está mudando a forma como as pessoas se exercitam, criam música e trabalham. A seguir, alguns exemplos de uso de Big Data.

  • Big Data está sendo usado na área de saúde para mapear surtos de doenças e testar tratamentos alternativos. usa Big Data para explorar o universo.
  • A indústria da música substitui a intuição pelos estudos de Big Data. use Big Data para estudar o comportamento do cliente e evitar apagões. usa wearables de monitoramento de integridade para rastrear clientes e fornecer feedback sobre sua saúde.
  • Big Data está sendo usado pela segurança cibernética para impedir o crime cibernético.

Big Data Analytics

A análise, de certo modo, existe desde 1663, quando John Graunt lidou com “quantidades avassaladoras de informação”, usando estatísticas para estudar a peste bubônica. Em 2017, 2.800 profissionais experientes que trabalharam com Business Intelligence foram entrevistados, e eles previram que a descoberta de dados e a visualização de dados se tornarão uma tendência importante. Visualização de dados é uma forma de comunicação visual (pense em infográficos). Ele descreve informações que foram traduzidas em formato esquemático e incluem mudanças, variáveis ​​e flutuações. Um cérebro humano pode processar padrões visuais com muita eficiência.

Os modelos de visualização estão se tornando cada vez mais populares como um método importante para obter insights de Big Data. (Os gráficos são comuns e a animação se tornará comum. No momento, os modelos de visualização de dados são um pouco desajeitados e poderiam ser melhorados.) Listados abaixo estão algumas das empresas que oferecem modelos de visualização de Big Data:

Com certeza, a Breve História do Big Data não é tão breve quanto parece. Mesmo que o século 17 não tenha visto nada perto dos volumes de dados em nível de exabyte com os quais as organizações estão lutando hoje, para os primeiros pioneiros de dados, os volumes de dados certamente pareciam assustadores na época. Big Data só vai continuar a crescer e com ele novas tecnologias serão desenvolvidas para melhor coletar, armazenar e analisar os dados conforme o mundo da transformação orientada por dados avança a velocidades cada vez maiores.


Uma breve história da Internet

A Internet começou na década de 1960 como uma forma de os pesquisadores do governo compartilharem informações. Os computadores dos anos 60 eram grandes e imóveis e, para fazer uso das informações armazenadas em qualquer computador, era necessário ir até o site do computador ou receber fitas magnéticas de computador enviadas pelo sistema postal convencional.

Outro catalisador na formação da Internet foi o aquecimento da Guerra Fria. O lançamento do satélite Sputnik pela União Soviética estimulou o Departamento de Defesa dos Estados Unidos a considerar as maneiras pelas quais as informações ainda poderiam ser disseminadas, mesmo após um ataque nuclear. Isso acabou levando à formação da ARPANET (Rede de Agências de Projetos de Pesquisa Avançada), a rede que acabou evoluindo para o que hoje conhecemos como Internet. A ARPANET foi um grande sucesso, mas a adesão foi limitada a certas organizações acadêmicas e de pesquisa que tinham contratos com o Departamento de Defesa. Em resposta a isso, outras redes foram criadas para fornecer compartilhamento de informações.

1º de janeiro de 1983 é considerado o aniversário oficial da Internet. Antes disso, as várias redes de computadores não tinham uma maneira padrão de se comunicarem. Um novo protocolo de comunicação foi estabelecido, denominado Protocolo de Controle de Transferência / Protocolo de Rede (TCP / IP). Isso permitiu que diferentes tipos de computadores em redes diferentes se & quottalk & quot uns com os outros. A ARPANET e a Defense Data Network mudaram oficialmente para o padrão TCP / IP em 1 de janeiro de 1983, daí o nascimento da Internet. Todas as redes agora podem ser conectadas por uma linguagem universal.


Mecanismo de computação automática de Turing

Turing e Newman estavam pensando em linhas semelhantes. Em 1945, Turing ingressou no National Physical Laboratory (NPL) em Londres, com a missão de projetar e desenvolver um computador digital com programa armazenado eletrônico para trabalho científico. (A inteligência artificial não estava longe dos pensamentos de Turing: ele se descreveu como "construindo um cérebro" e comentou em uma carta que estava "mais interessado na possibilidade de produzir modelos da ação do cérebro do que nas aplicações práticas da computação". John Womersley , O superior imediato de Turing no NPL, batizou a máquina proposta de Turing de Automatic Computing Engine, ou ACE, em homenagem ao mecanismo de diferença e mecanismo analítico de Babbage.

O relatório de 1945 de Turing & lsquoProposed Electronic Calculator & rsquo deu a primeira especificação relativamente completa de um computador digital de uso geral com programa armazenado eletrônico. O relatório foi reimpresso na íntegra em Copeland 2005.

O primeiro computador digital com programa armazenado eletrônico a ser proposto nos EUA foi o EDVAC (ver abaixo). O & lsquoFirst Draft of a Report on the EDVAC & rsquo (maio de 1945), composto por von Neumann, continha poucos detalhes de engenharia, em particular no que diz respeito ao hardware eletrônico (devido a restrições nos EUA). A & lsquoProposed Electronic Calculator & rsquo de Turing, por outro lado, forneceu projetos detalhados de circuitos e especificações de unidades de hardware, programas de amostra em código de máquina e até mesmo uma estimativa do custo de construção da máquina (& libra 11,200). O ACE e o EDVAC diferiam fundamentalmente um do outro, por exemplo, o ACE empregava processamento distribuído, enquanto o EDVAC tinha uma estrutura centralizada.

Turing percebeu que a velocidade e a memória eram as chaves da computação. O colega de Turing no NPL, Jim Wilkinson, observou que Turing & lsquow era obcecado com a ideia de velocidade na máquina & rsquo [Copeland 2005, p. 2]. O projeto de Turing tinha muito em comum com as arquiteturas RISC de hoje e exigia uma memória de alta velocidade com aproximadamente a mesma capacidade de um computador Macintosh anterior (enorme para os padrões de sua época). Se o ACE de Turing tivesse sido construído conforme planejado, ele estaria em uma liga diferente dos outros computadores anteriores. No entanto, o progresso no Automatic Computing Engine de Turing correu lentamente, devido a dificuldades organizacionais no NPL, e em 1948 uma & lsquovery farto & rsquo Turing (descrição de Robin Gandy, em entrevista com Copeland, 1995) deixou o NPL para o Laboratório de Máquinas de Computação de Newman na Universidade de Manchester. Somente em maio de 1950 um pequeno modelo piloto do Automatic Computing Engine, construído por Wilkinson, Edward Newman, Mike Woodger e outros, executou um programa pela primeira vez. Com uma velocidade de operação de 1 MHz, o Pilot Model ACE foi por algum tempo o computador mais rápido do mundo.

As vendas do DEUCE, a versão de produção do Pilot Model ACE, foram flutuantes & mdash confundindo a sugestão, feita em 1946 pelo Diretor do NPL, Sir Charles Darwin, de que & lsquoit é muito possível que & hellip uma máquina seria suficiente para resolver todos os problemas que são exigidos de todo o país & rsquo [Copeland 2005, p. 4]. Os fundamentos do projeto ACE de Turing foram empregados por Harry Huskey (na Wayne State University, Detroit) no computador Bendix G15 (Huskey em entrevista a Copeland, 1998). O G15 foi indiscutivelmente o primeiro computador pessoal mais de 400 vendidos em todo o mundo. O DEUCE e o G15 permaneceram em uso até cerca de 1970. Outro computador derivado do projeto ACE de Turing, o MOSAIC, desempenhou um papel nas defesas aéreas da Grã-Bretanha durante o período da Guerra Fria, outros derivados incluem o Packard-Bell PB250 (1961). (Mais informações sobre esses primeiros computadores são fornecidas em [Copeland 2005].)


Como o censo levou à computação moderna - HISTÓRIA

Passamos da válvula de vácuo ao transistor, ao microchip. Então o microchip começou a falar com o modem. Agora trocamos texto, som, fotos e filmes em ambiente digital.

Marcos de computação e evolução da máquina:

  • 14º C. - Abacus - um instrumento para realizar cálculos deslizando contadores ao longo de hastes ou em ranhuras (gráfico: Merriam Webster Collegiate Dictionary http://www.m-w.com/mw/art/abacus.htm)
  • 17º C. - Régua de cálculo - dispositivo manual de cálculo que consiste na sua forma simples de régua e peça intermédia móvel graduada com escalas logarítmicas semelhantes (Imagem do Museu das Calculadoras HP)
  • 1642 - Pascaline - uma calculadora mecânica construída por Blaise Pascal, um matemático do século 17, que deu nome à linguagem de programação de computador Pascal.
  • 1804 - tear Jacquard - um tear programado com cartões perfurados inventado por Joseph Marie Jacquard
  • cerca de 1850 - Máquina Diferencial, Máquina Analítica - Charles Babbage e Ada Byron (Veja a foto dela.). A descrição de Babbage, em 1837, da Máquina Analítica, um computador digital mecânico de manivela, antecipou virtualmente todos os aspectos dos computadores atuais. Apenas 100 anos depois, outro computador multifuncional foi concebido. Sketch of the Engine e notas de Ada Byron King, Condessa de Lovelace.
  • 1939 -1942 - Computador Atanasoff Berry - construído no estado de Iowa pelo Prof. John V. Atanasoff e o estudante de graduação Clifford Berry.Representou vários "primeiros" na computação, incluindo um sistema binário de aritmética, processamento paralelo, memória regenerativa, separação de memória e funções de computação e muito mais. Pesava 750 libras. e tinha um armazenamento de memória de 3.000 bits (0,4K). Números registrados por marcas de queimadura em cartões enquanto resolvia um problema. Veja o diagrama.
  • Década de 1940 - Colossus - uma máquina de computação de tubo a vácuo que quebrou os códigos de Hitler durante a Segunda Guerra Mundial. Foi fundamental para ajudar Turing a quebrar os códigos alemães durante a Segunda Guerra Mundial para virar a maré da guerra. No verão de 1939, um pequeno grupo de estudiosos tornou-se decifradores de códigos, trabalhando na Bletchley Part na Inglaterra. Esse grupo de decifradores pioneiros ajudou a abreviar a guerra e mudou o curso da história. Veja o site do Bletchley Park e sua história. Veja mais informações sobre Códigos e Cifras na Segunda Guerra Mundial no site de Tony Sales.
  • 1946 - ENIAC - O primeiro computador eletrônico de grande escala e uso geral do mundo, construído por Mauchly e Eckert e ativado na Universidade da Pensilvânia em 1946. ENIAC recriado em um chip de computador moderno. Veja uma explicação do ENIAC on a Chip pela Moore School of Electrical Engineering, University of Pennsylvania. O ENIAC é uma máquina de 30 toneladas que mede 50 x 30 pés. Continha 19.000 tubos de vácuo, 6.000 interruptores e podia somar 5.000 números por segundo, um feito notável na época. Uma máquina reprogramável, o ENIAC realizou os cálculos iniciais para a bomba H. Também era usado para preparar tabelas de trajetória de projéteis de artilharia e realizar outros cálculos militares e científicos. Como não havia software para reprogramar o computador, as pessoas tiveram que reconectá-lo para que executasse funções diferentes. Os programadores humanos tinham que ler diagramas de fiação e saber o que cada switch fazia. J. Presper Eckert, Jr. e John W. Mauchly basearam-se no trabalho de Alansoff para criar o ENIAC, o Integrador Numérico Eletrônico e Computador.
  • 1951-1959 - tecnologia baseada em tubo de vácuo. Tubos de vácuo são dispositivos eletrônicos, consistindo de um envelope de vácuo de vidro ou aço e dois ou mais eletrodos entre os quais os elétrons podem se mover livremente. Os primeiros computadores comerciais usaram tubos de vácuo: Univac, IBM 701.
  • Década de 1950-1960 - UNIVAC - "tecnologia de cartão perfurado" O primeiro computador de sucesso comercial, lançado em 1951 pela Remington Rand. Mais de 40 sistemas foram vendidos. Sua memória era feita de linhas de atraso acústico preenchidas com mercúrio que continham 1.000 números de 12 dígitos. Ele usava fitas magnéticas que armazenavam 1 MB de dados a uma densidade de 128 cpi. UNIVAC tornou-se sinônimo de computador (por um tempo). Veja foto UNIVAC. Veja o fluxograma UNIVAC
  • 1960 IBM 1620 - Veja as fotos no Museu de História do Computador.
  • 1960-1968 - tecnologia baseada em transistor. O transistor, inventado em 1948 pelo Dr. John Bardeen, Dr. Walter Brattain e Dr. William Shockley. Ele substituiu quase completamente o tubo de vácuo por causa de seu custo, peso e consumo de energia reduzidos e sua maior confiabilidade. Veja a explicação e o diagrama de um transistor e a aparência do primeiro transistor. O transistor é feito para alterar seu estado de uma condição inicial de condutividade (ligado 'ligado', fluxo de corrente total) para uma condição final de isolamento (desligado 'desligado', sem fluxo de corrente).
  • 1969 - A Internet, originalmente ARPAnet (rede Advanced Research Projects Agency), começou como uma rede militar de computadores.
  • 1969-1977 - tecnologia baseada em circuitos integrados (IC). O primeiro circuito integrado foi demonstrado pelo inventor da Texas Instruments, Jack Kilby, em 1958. Ele tinha 7/16 "de largura e continha dois transistores. Exemplos das primeiras tecnologias de circuito integrado: Intel 4004, Dec pdp 8, CRAY 1 (1976) - a Máquina de 75 MHz, 64 bits com velocidade de pico de 160 megaflops, (um milhão de operações de ponto flutuante por segundo) o processador mais rápido do mundo naquela época. Agora, os circuitos podem conter centenas de milhares de transistores em um pequeno pedaço de material, o que revolucionou a computação Aqui está um diagrama de um circuito integrado moderno, conhecido como chip.
  • 1976 - CRAY 1 - O primeiro computador digital eletrônico do mundo, desenvolvido em 1946. Uma máquina de 75 MHz, 64 bits com velocidade de pico de 160 megaflops, (um milhão de operações de ponto flutuante por segundo) o processador mais rápido do mundo naquela época.
  • 1976 - Maçãs / MACs - A Maçã foi projetada por Steve Wozniak e Steve Jobs. A Apple foi a primeira a ter uma interface gráfica do tipo "windows" e o mouse do computador. Como os computadores modernos, os primeiros Apples tinham um teclado e mouse periféricos e uma unidade de disquete com discos de 3,5 ". O Macintosh substituiu o Apple. Veja uma foto do Apple III (1980 - 1985).
  • 1978 a 1986 - integração em grande escala (LSI) Alto - estação de trabalho inicial com mouse Apple, projetada por Steve Wozniak e Steve Jobs. A Apple foi a primeira a ter uma interface gráfica do tipo "windows" e o mouse do computador. Veja a evolução do Apple / MACs ao longo do tempo. O mercado de PCs e clones começa a se expandir. Isso dá início ao primeiro mercado de massa de computadores desktop.
  • De 1986 até hoje - a era da computação em rede, da Internet e da WWW.
  • 1990 - Tim Berners-Lee inventou o sistema de hipertexto em rede chamado World Wide Web.
  • 1992 - A Microsoft Corp. de Bill Gates lançou o Windows 3.1, um sistema operacional que tornou os PCs IBM e compatíveis com a IBM mais fáceis de usar, integrando uma interface gráfica de usuário ao software. Ao substituir o antigo sistema de linha de comando do Windows, no entanto, a Microsoft criou um programa semelhante ao sistema operacional Macintosh. A Apple processou por violação de direitos autorais, mas a Microsoft prevaleceu. O Windows 3.1 foi para o Win 95, depois para o Win 98 e agora para o Windows XP. (Existem outros sistemas operacionais, é claro, mas o Windows é o sistema operacional dominante hoje. Os MACs, da Apple, ainda têm seguidores fiéis. O Linux tem seguidores fiéis.
  • 1995 - grandes provedores comerciais de serviços de Internet (ISPs), como MCI, Sprint, AOL e UUNET, começaram a oferecer serviços a um grande número de clientes.
  • 1996 - Assistentes digitais pessoais (como o Palm Pilot tornaram-se disponíveis para os consumidores. Eles podem fazer cálculos numéricos, jogar jogos e música e baixar informações da Internet. Consulte Como funciona o material para obter um histórico e detalhes.
    de volta ao topo

Charles Babbage (1792-1871) - Motor de diferença, motor analítico. Ada Byron, filha do poeta Lord Byron, trabalhou com ele. Sua descrição, em 1837, da Máquina Analítica, um computador digital mecânico, antecipou virtualmente todos os aspectos dos computadores atuais. Sketch of the Engine e notas de Ada Byron King, Condessa de Lovelace.

Alan Turing - 1912-1954. Codebreaker britânico. Trabalhou no Colossus (máquina de quebrar códigos, precursora do computador) e no ACE (Automatic Computing Engine). Famoso por muitas ideias brilhantes, Turing talvez seja mais lembrado pelos conceitos do Teste de Turing para Inteligência Artificial e da Máquina de Turing, um modelo abstrato para modelar operações de computador. O Teste de Turing é o "teste ácido" da verdadeira inteligência artificial, conforme definido pelo cientista inglês Alan Turing. Na década de 1940, ele disse que "uma máquina tem inteligência artificial quando não há diferença perceptível entre a conversa gerada pela máquina e a de uma pessoa inteligente". Turing foi fundamental para quebrar o código do enigma alemão durante a Segunda Guerra Mundial com sua máquina de computação Bombe. O Enigma é uma máquina usada pelos alemães para criar mensagens criptografadas. Veja o Tratado de Turing sobre Enigma.

Mais informações sobre a máquina Enigma.

J. von Neumann - (1903-1957). Uma criança prodígio em matemática, escreveu um artigo marcante que explica como os programas podem ser armazenados como dados. (Ao contrário do ENIAC, que teve que ser reconectado para ser reprogramado.). Praticamente todos os computadores de hoje, de brinquedos a supercomputadores que custam milhões de dólares, são variações da arquitetura de computador que John von Neumann criou com base no trabalho de Alan Turing na década de 1940. Ele incluía três componentes usados ​​pela maioria dos computadores hoje: uma CPU, uma área de armazenamento de acesso lento, como um disco rígido e uma memória secundária de acesso rápido (RAM). A máquina armazenava instruções como valores binários (criando o conceito de programa armazenado) e instruções executadas sequencialmente - o processador buscava instruções uma de cada vez e as processava. A instrução é analisada, os dados são processados, a próxima instrução é analisada etc. Hoje, a "arquitetura de von Neumann" geralmente se refere à natureza sequencial dos computadores baseados neste modelo. Veja outra fonte de von Neumann.

John V. Atanasoff - (1904 - 1995) - um dos contendores, junto com Konrad Zuse e H. Edward Roberts e outros, como o inventor do primeiro computador. O dispositivo de tubo a vácuo de função limitada tinha capacidades limitadas e não tinha uma central. Não era programável, mas podia resolver equações diferenciais usando aritmética binária. Computador de Atanasoff.

J. Presper Eckert, Jr. e John W. Mauchly completaram o primeiro computador digital eletrônico de uso geral programado em 1946. Eles se basearam no trabalho de Alansoff para criar o ENIAC, o Integrador Numérico Eletrônico e Computador. Em 1973, um processo de patente resultou na declaração legal de John V. Atanasoff de inventor. Embora Atanasoff tenha obtido status legal por sua conquista, muitos historiadores ainda dão crédito a J. Presper Eckert, Jr. e John W. Mauchly, os fundadores do computador moderno. Eckert e Mauchly formaram a primeira empresa de computadores em 1946. Eckert recebeu 87 patentes. Eles introduziram o primeiro computador binany moderno com o Binary Automatic Computer (BINAC), que armazenava informações em fita magnética em vez de cartões perfurados. Seu UNIVAC I, foi construído para o U.S. Census Bureau. A empresa foi adquirida pela Remington Rand, que se fundiu na Sperry Rand Corp. e depois na Unisys Corp. Eckert se aposentou da Unisys em 1989.

Konrad Zuse - (1910-1995) Alemão que, durante a Segunda Guerra Mundial, projetou computadores mecânicos e eletromecânicos. O Z1 de Zuse, seu candidato ao primeiro computador livremente programável, continha todos os componentes básicos de um computador moderno (unidade de controle, memória, micro sequências, etc.). Zuse, devido à escassez de material durante a Segunda Guerra Mundial, usou filmes de vídeo descartados como cartões perfurados. Como um computador moderno, ele era adaptável para diferentes propósitos e usava relés de chave liga / desliga, um sistema binário de 1s e 0s (ligado = 1, desligado = 0). Concluído em 1938, foi destruído no bombardeio de Berlim na segunda guerra mundial, juntamente com os planos de construção. Em 1986, Zuse reconstruiu o Z1.

H. Edward Roberts - desenvolveu o MITS Altair 8800 em 1975. O Altair é considerado por alguns como o primeiro microcomputador (computador pessoal)., O MITS Altair 8800 era baseado em um chip Intel 8080 de 2 MHz, com 256 bytes, padrão RAM. Foi desenvolvido um ano antes do lançamento do primeiro Apple, por Steve Wozniak e Steve Jobs. Paul Allen e Bill Gates (então estudante em Harvard) escreveram uma versão reduzida da linguagem de programação Basic para rodar no Altair, que foi o início da Microsoft.

Veja detalhes sobre o MITS Altair 8800 no Computer Museum of America (http://www.computer-museum.org/collections/mits8800.html)

Não podemos falar sobre computadores sem mencionar:

O Nascimento da Internet

A Internet, originalmente a ARPAnet (rede da Agência de Projetos de Pesquisa Avançada), começou como uma rede de computadores militares em 1969. Essa rede foi um projeto experimental da Agência de Projetos de Pesquisa Avançada do Departamento de Defesa dos Estados Unidos (DARPA). Outras agências governamentais e universidades criadas internamente redes baseadas no modelo ARPAnet. O catalisador para a Internet hoje foi fornecido pela National Science Foundation (NSF). Em vez de ter uma conexão de comunicação física de cada instituição a um centro de supercomputação, a NSF começou uma "cadeia" de conexões nas quais as instituições seriam conectadas a seus centros de computação "vizinhos", todos ligados a centros de supercomputação centrais. Esse início se expandiu para uma rede global de redes de computadores, que permite que computadores de todo o mundo se comuniquem entre si e compartilhem informações armazenadas em vários "servidores", seja em um computador local ou em um computador localizado em qualquer parte do mundo. Em 1986, surgiu a National Science Foundation Network (NSFNET), que reunia cientistas de todo o país com cinco centros de supercomputadores. As universidades foram os primeiros usuários da Internet. Em 1992, a Internet ainda era usada principalmente por pesquisadores e acadêmicos. Em 1995, grandes provedores comerciais de serviços de Internet (ISPs), como MCI, Sprint, AOL e UUNET, começaram a oferecer serviços a um grande número de clientes.

A Internet agora conecta milhares de redes de computadores, alcançando pessoas em todo o mundo. Veja este Atlas de ciberespaços para imagens gráficas de redes no ciberespaço.

Desde que o tráfego na Internet se tornou tão pesado, algumas das instituições científicas e acadêmicas que formaram a Internet original desenvolveram uma nova rede global chamada Internet 2. Conhecida como Projeto Abilene, e rodando em um cabo de fibra óptica rápido, foi oficialmente aberta para negócios em fevereiro de 1999 em uma cerimônia em Washington, DC

A George Mason University é uma das 150 universidades nos Estados Unidos que estão trabalhando no projeto Internet 2 com a indústria por meio da University Corporation for Advanced Internet Development (UCAID) para melhorar a funcionalidade e os recursos da Internet. A velocidade de 2,4 gigabit por segundo da rede começou com uma velocidade de transmissão de 45.000 mais rápida do que um modem de 56K.

1990 - Tim Berners-Lee, atualmente o diretor do World Wide Web Consortium, o órgão coordenador para o desenvolvimento da Web, inventou a World Wide Web. Ele ocupa a cadeira de fundadores da 3Com no Laboratório de Ciência da Computação do MIT. A WWW foi originalmente concebida e desenvolvida para as colaborações de física de alta energia, que exigem o compartilhamento instantâneo de informações entre físicos que trabalham em diferentes universidades e institutos em todo o mundo. Agora a WWW é usada por pessoas em todo o mundo, crianças e adultos, para usos pessoais, comerciais e acadêmicos. Berners-Lee e Robert Cailliau escreveram o primeiro software cliente e servidor WWW, definindo endereços da Web (URLs), protocolo de transferência de hipertexto (http) e linguagem de marcação de hipertexto (html). Aqui está a proposta original de Tim Berners-Lee para tentar persuadir a administração do CERN a iniciar um sistema de hipertexto global, que Berners-Lee chamou de "Mesh" antes de decidir pelo nome "World Wide Web" ao escrever o código em 1990. Em dezembro de 1993 , Berners-Lee e Cailliau, junto com Marc Andreesen e E. Bina do NCSA, compartilharam o Prêmio de Sistema de Software da Association for Computing (ACM) pelo desenvolvimento da World-Wide Web. O navegador gráfico da Web, Mosaic, evoluiu para o Netscape.

A WWW é baseada no protocolo de hipertexto.

Consulte a visão geral do CERN sobre a WWW (o que é e seu progresso).

A facilidade de usar a World Wide Web tornou mais fácil para as pessoas se conectarem umas com as outras, superando os obstáculos de tempo e espaço. Essa rede gerou inúmeras comunidades virtuais e ciberculturas. Veja esta lista de recursos sobre ciberculturas. A WWW também se tornou uma maneira conveniente de comprar e vender bens e serviços.

A Internet e a WWW não vêm sem ramificações éticas e legais, como violação de direitos autorais, espionagem e hacking de computador, vírus de computador, fraude e questões de privacidade. Consulte os links para Ética, Legislação e Questões de Privacidade sobre computadores. Consulte também recursos de copyright da Internet.

Qual é o próximo?? - algo interessante para refletir: Nanotecnologia - K. Eric Drexler é o fundador da nanotecnologia, a ideia de usar átomos e moléculas individuais para construir "coisas" vivas e mecânicas em fábricas em miniatura. Sua visão é que, se os cientistas podem criar DNA em uma molécula, por que não podemos construir máquinas com átomos e programá-los para construir mais máquinas? A exigência de baixo custo cria um interesse por esses "sistemas de manufatura auto-replicantes", estudados por von Neumann na década de 1940. Esses "nanorrobôs", programados por computadores em miniatura menores que a célula humana, podem passar pela corrente sanguínea curando doenças, realizar cirurgias etc. Se essa tecnologia surgir, as barreiras entre os sistemas vivos e projetados podem ser quebradas. Pesquisadores de várias instituições e organizações, como NASA e Xerox, estão trabalhando nessa tecnologia.


Algumas das muitas mulheres pioneiras na computação:

Ada Byron King - Retrato .Condessa de Lovelace e filha do poeta britânico Lord Byron (1815-1852). - Ada era matemática e escreveu extensas notas sobre a máquina de calcular de Charles Babbage e sugeriu como a máquina poderia calcular os números de Bernoulli. Este plano é agora considerado o primeiro "programa de computador". Sketch of the Engine e notas de Ada Byron King, Condessa de Lovelace. Uma linguagem de software desenvolvida pelo Departamento de Defesa dos EUA foi chamada de "Ada" em sua homenagem em 1979.

Edith Clarke (1883-1959) - No MIT, em junho de 1919, Clarke recebeu o primeiro diploma de Engenharia Elétrica concedido a uma mulher. Ela desenvolveu e disseminou métodos matemáticos que simplificaram os cálculos e reduziram o tempo gasto na solução de problemas de projeto e operação de sistemas elétricos de potência.

Grace Murray Hopper (1906-1992) - Hopper obteve um MA em 1930 e um Ph.D. em 1934 em Matemática, pela Universidade de Yale. Ela se aposentou da Marinha em 1967 com o posto de Contra-almirante. Hopper criou um sistema compilador que traduziu o código matemático em linguagem de máquina. Versões posteriores, sob sua direção, o compilador se tornou o precursor das linguagens de programação modernas. Ela foi pioneira na integração do inglês em programas com o FLOW-MATIC. Hopper recebeu o prêmio de "Homem do Ano" em Ciências da Computação em 1969. Ela foi a primeira mulher a entrar na Distinguished Fellow British Computer Society em 1973. O termo "bug", um erro ou defeito de software que faz com que um programa mau funcionamento, originado, de acordo com o folclore da informática, quando Grace e sua equipe encontraram uma mariposa morta que foi "eletrocutada" pelo relé e causou a falha do dispositivo.

Erna Hoover - inventou um sistema de comutação computadorizado para tráfego telefônico. Por essa conquista, ela recebeu a primeira patente de software já emitida (Patente # 3.623.007) em 23 de novembro de 1971). Ela foi a primeira supervisora ​​de um departamento técnico (no Bell Labs).

Kay McNulty Mauchly Antonelli e Alice Burks - fizeram cálculos para tabelas de trajetórias de tiros e bombardeios, como parte do esforço de guerra. Esse trabalho motivou o desenvolvimento, em 1946, do ENIAC, o primeiro computador eletrônico digital do mundo.

Adele Goldstine - auxiliou na criação do ENIAC e redigiu o manual para utilizá-lo.

Joan Margaret Winters - programadora científica em SLAC Computing Services no Stanford Linear Accelerator Center, entre outras realizações.

Alexandra Illmer Forsythe (1918-1980) -. Durante as décadas de 1960 e 1970, ela foi co-autora de uma série de livros didáticos sobre ciência da computação. Ela escreveu o primeiro livro didático de ciência da computação.

Evelyn Boyd Granville - foi uma das primeiras mulheres afro-americanas a obter um Ph.D.Na matemática. Durante sua carreira, ela desenvolveu programas de computador que foram usados ​​para análise de trajetória no Projeto Mercury (a primeira missão tripulada dos EUA no espaço) e no Projeto Apollo (que enviou astronautas dos EUA à lua).

Linhas do tempo:
Linha do tempo da história do computador
Linha do tempo de eventos na história do computador
Museus de informática / sites de história:
Gerações através da história da computação - um tour pelas empresas e os computadores nos levaram até onde estamos hoje.
Triumph of the Nerds Online - companheiro da série PBS
A Máquina que Mudou o Mundo - site que acompanha a série de vídeos (O livro que acompanhou a série "Máquina que Mudou o Mundo: A Máquina dos Sonhos: Explorando a Era do Computador. Jon Palfreman e Doron Swade. BBC Books, Londres, 1991)
O Projeto Ada
UVA Computer Museum
VA Tech História dos Computadores


Primeiro Univac 1 entregue ao US Census Bureau

O Univac 1 é o primeiro computador comercial a atrair a atenção do público em geral. Embora fabricada pela Remington Rand, a máquina era muitas vezes chamada erroneamente de “IBM Univac”. Os computadores Univac eram usados ​​em muitas aplicações diferentes, mas utilitários, seguradoras e militares dos EUA eram os principais clientes. Um estudioso da Bíblia chegou a usar um Univac 1 para compilar uma concordância com a versão King James da Bíblia. Criado por Presper Eckert e John Mauchly - designers do computador ENIAC anterior - o Univac 1 usava 5.200 tubos de vácuo e pesava 29.000 libras. A Remington Rand vendeu 46 Univac 1s por mais de US $ 1 milhão cada.


A computação digital está intimamente ligada à representação de números. [1] Mas muito antes de abstrações como o número surgiu, havia conceitos matemáticos para servir aos propósitos da civilização. Esses conceitos estão implícitos em práticas concretas como:

  • Correspondência um a um, [2] uma regra a ser contadaquantos itens, por exemplo em um tally stick, eventualmente abstraído em números.
  • Comparação com um padrão, [3] um método para assumir reprodutibilidade em uma medida, por exemplo, o número de moedas.
  • o 3-4-5 triângulo retângulo era um dispositivo para garantir um ângulo certo, usando cordas com 12 nós uniformemente espaçados, por exemplo. [4]

Por fim, o conceito de números tornou-se concreto e familiar o suficiente para que surgisse a contagem, às vezes com mnemônicos cantados para ensinar sequências a outros. Todas as línguas humanas conhecidas, exceto a língua Piraha, têm palavras para pelo menos "um" e "dois", e até mesmo alguns animais como o melro podem distinguir um número surpreendente de itens. [5]

Os avanços no sistema numeral e na notação matemática eventualmente levaram à descoberta de operações matemáticas como adição, subtração, multiplicação, divisão, quadrado, raiz quadrada e assim por diante. Por fim, as operações foram formalizadas e os conceitos sobre as operações passaram a ser entendidos bem o suficiente para serem declarados formalmente e até mesmo comprovados. Veja, por exemplo, o algoritmo de Euclides para encontrar o maior divisor comum de dois números.

Na Alta Idade Média, o sistema numérico posicional hindu-arábico havia alcançado a Europa, o que permitia o cálculo sistemático de números. Nesse período, a representação de um cálculo no papel realmente permitia o cálculo de expressões matemáticas e a tabulação de funções matemáticas como a raiz quadrada e o logaritmo comum (para uso na multiplicação e divisão) e as funções trigonométricas. Na época da pesquisa de Isaac Newton, papel ou velino era um importante recurso de computação e, mesmo em nossos dias, pesquisadores como Enrico Fermi cobriam pedaços de papel aleatórios com cálculos, para satisfazer sua curiosidade sobre uma equação. [6] Mesmo no período das calculadoras programáveis, Richard Feynman calculava sem hesitação quaisquer etapas que transbordassem da memória das calculadoras, à mão, apenas para saber a resposta em 1976 Feynman havia comprado uma calculadora HP-25 com 49 etapas do programa capacidade se uma equação diferencial exigisse mais de 49 etapas para ser resolvida, ele poderia simplesmente continuar seu cálculo à mão. [7]

As afirmações matemáticas não precisam ser abstratas apenas quando uma afirmação pode ser ilustrada com números reais, os números podem ser comunicados e uma comunidade pode surgir. Isso permite as afirmações verificáveis ​​e repetíveis, que são a marca registrada da matemática e das ciências. Esses tipos de declarações existem há milhares de anos e em várias civilizações, conforme mostrado abaixo:

A primeira ferramenta conhecida para uso em computação é o ábaco sumério, e acredita-se que tenha sido inventado na Babilônia c. 2700–2300 aC. Seu estilo original de uso era por linhas traçadas na areia com seixos. Os Abaci, de design mais moderno, ainda hoje são utilizados como ferramentas de cálculo. Esta foi a primeira calculadora conhecida e o sistema de cálculo mais avançado conhecido até hoje - precedendo Arquimedes em 2.000 anos.

Em c. 1050–771 aC, a carruagem apontando para o sul foi inventada na China antiga. Foi o primeiro mecanismo de engrenagem conhecido a usar uma engrenagem diferencial, que mais tarde foi usada em computadores analógicos. Os chineses também inventaram um ábaco mais sofisticado por volta do século 2 aC, conhecido como ábaco chinês. [8]

No século 5 aC, na Índia antiga, o gramático Pāṇini formulou a gramática do sânscrito em 3959 regras conhecidas como Ashtadhyayi, que eram altamente sistematizadas e técnicas. Panini usou metarules, transformações e recursões. [9]

No século 3 aC, Arquimedes usou o princípio mecânico de equilíbrio (ver Arquimedes Palimpsesto # Conteúdo matemático) para calcular problemas matemáticos, como o número de grãos de areia no universo (O calculador de areia), que também exigia uma notação recursiva para números (por exemplo, a miríade de uma miríade).

Acredita-se que o mecanismo de Antikythera seja o primeiro computador analógico mecânico conhecido. [10] Ele foi projetado para calcular posições astronômicas. Foi descoberto em 1901 no naufrágio de Antikythera na ilha grega de Antikythera, entre Kythera e Creta, e foi datado de cerca de 100 AC.

Dispositivos de computador analógicos mecânicos apareceram novamente mil anos depois no mundo islâmico medieval e foram desenvolvidos por astrônomos muçulmanos, como o astrolábio com engrenagens mecânicas de Abū Rayhān al-Bīrūnī [11] e o torquetum de Jabir ibn Aflah. [12] De acordo com Simon Singh, os matemáticos muçulmanos também fizeram avanços importantes na criptografia, como o desenvolvimento da criptoanálise e análise de frequência por Alkindus. [13] [14] As máquinas programáveis ​​também foram inventadas por engenheiros muçulmanos, como o tocador automático de flauta dos irmãos Banū Mūsā, [15] e os robôs humanóides de Al-Jazari [ citação necessária ] e relógio do castelo, que é considerado o primeiro computador analógico programável. [16]

Durante a Idade Média, vários filósofos europeus fizeram tentativas para produzir dispositivos analógicos de computador. Influenciado pelos árabes e pela escolástica, o filósofo maiorquino Ramon Llull (1232–1315) dedicou grande parte de sua vida a definir e projetar vários máquinas lógicas que, combinando verdades filosóficas simples e inegáveis, poderia produzir todo o conhecimento possível. Essas máquinas nunca foram realmente construídas, pois eram mais um experimento mental para produzir novos conhecimentos de maneiras sistemáticas, embora pudessem fazer operações lógicas simples, ainda precisavam de um ser humano para a interpretação dos resultados. Além disso, eles careciam de uma arquitetura versátil, cada máquina servindo apenas a propósitos muito concretos. Apesar disso, o trabalho de Lúlio teve forte influência em Gottfried Leibniz (início do século 18), que desenvolveu ainda mais suas idéias e construiu várias ferramentas de cálculo a partir delas.

Na verdade, quando John Napier descobriu logaritmos para fins computacionais no início do século 17, seguiu-se um período de considerável progresso por parte de inventores e cientistas na fabricação de ferramentas de cálculo. O ápice dessa era inicial da computação formal pode ser visto no mecanismo de diferença e seu sucessor, o mecanismo analítico (que nunca foi completamente construído, mas foi projetado em detalhes), ambos por Charles Babbage. A máquina analítica combinou conceitos de seu trabalho e de outros para criar um dispositivo que, se construído conforme projetado, teria possuído muitas propriedades de um computador eletrônico moderno. Essas propriedades incluem recursos como uma "memória temporária" interna equivalente à RAM, várias formas de saída, incluindo uma campainha, um plotter gráfico e uma impressora simples, e uma memória "rígida" de entrada-saída programável de cartões perfurados que pode ser modificada bem como ler. O principal avanço que os dispositivos de Babbage possuíam além dos criados antes dele foi que cada componente do dispositivo era independente do resto da máquina, muito parecido com os componentes de um computador eletrônico moderno. Essa foi uma mudança fundamental no pensamento de que os dispositivos computacionais anteriores serviam apenas a um único propósito, mas precisavam ser, na melhor das hipóteses, desmontados e reconfigurados para resolver um novo problema. Os dispositivos de Babbage poderiam ser reprogramados para resolver novos problemas pela entrada de novos dados e agir de acordo com cálculos anteriores dentro da mesma série de instruções. Ada Lovelace levou esse conceito um passo adiante, criando um programa para o mecanismo analítico para calcular os números de Bernoulli, um cálculo complexo que requer um algoritmo recursivo. Este é considerado o primeiro exemplo de um verdadeiro programa de computador, uma série de instruções que atuam sobre dados desconhecidos por completo até que o programa seja executado. Seguindo Babbage, embora não soubesse de seu trabalho anterior, Percy Ludgate em 1909 publicou o segundo dos únicos dois projetos de motores analíticos mecânicos da história. [17]

Vários exemplos de computação analógica sobreviveram até tempos recentes. Um planímetro é um dispositivo que faz integrais, usando a distância como grandeza analógica. Até a década de 1980, os sistemas HVAC usavam ar tanto como a grandeza analógica quanto como o elemento de controle. Ao contrário dos computadores digitais modernos, os computadores analógicos não são muito flexíveis e precisam ser reconfigurados (ou seja, reprogramados) manualmente para que não trabalhem em um problema para outro. Os computadores analógicos tinham uma vantagem sobre os primeiros computadores digitais, pois podiam ser usados ​​para resolver problemas complexos usando análogos comportamentais, enquanto as primeiras tentativas de computadores digitais eram bastante limitadas.

Como os computadores eram raros nesta época, as soluções eram muitas vezes codificado em formulários de papel, como nomogramas, [18] que poderiam então produzir soluções analógicas para esses problemas, como a distribuição de pressões e temperaturas em um sistema de aquecimento.

O “cérebro” [computador] pode um dia descer ao nosso nível [das pessoas comuns] e ajudar com nossos cálculos de imposto de renda e contabilidade. Mas isso é especulação e não há sinal disso até agora.

Nenhum dos primeiros dispositivos computacionais eram realmente computadores no sentido moderno, e foi necessário um avanço considerável na matemática e na teoria antes que os primeiros computadores modernos pudessem ser projetados.

Em uma carta de 1886, Charles Sanders Peirce descreveu como as operações lógicas podem ser realizadas por circuitos elétricos de comutação. [20] Durante 1880-81, ele mostrou que portas NOR sozinhas (ou alternativamente portas NAND sozinhas) podem ser usadas para reproduzir as funções de todas as outras portas lógicas, mas este trabalho não foi publicado até 1933. [21] a prova foi por Henry M. Sheffer em 1913, então a operação lógica NAND às vezes é chamada de golpe de Sheffer, a NOR lógico às vezes é chamada Flecha de Peirce. [22] Consequentemente, essas portas às vezes são chamadas de portas lógicas universais. [23]

Eventualmente, tubos de vácuo substituíram relés para operações lógicas. A modificação de Lee De Forest, em 1907, da válvula de Fleming pode ser usada como uma porta lógica. Ludwig Wittgenstein introduziu uma versão da tabela verdade de 16 linhas como a proposição 5.101 de Tractatus Logico-Philosophicus (1921). Walther Bothe, inventor do circuito de coincidência, ganhou parte do Prêmio Nobel de Física em 1954, pelo primeiro portão AND eletrônico moderno em 1924. Konrad Zuse projetou e construiu portas lógicas eletromecânicas para seu computador Z1 (de 1935 a 1938).

A primeira ideia registrada do uso de eletrônica digital para computação foi o artigo de 1931 "O Uso de Tiratrons para Contagem Automática de Fenômenos Físicos em alta velocidade", de C. E. Wynn-Williams. [24] De 1934 a 1936, o engenheiro da NEC Akira Nakashima publicou uma série de artigos introduzindo a teoria do circuito de comutação, usando eletrônica digital para operações algébricas booleanas, [25] [26] [27] influenciando o artigo seminal de Claude Shannon de 1938 "A Symbolic Analysis of Circuitos de relé e comutação ". [28]

Em 1935, Alan Turing escreveu seu artigo seminal On Computable Numbers, with an Application to the Entscheidungsproblem [29], no qual modelou a computação em termos de uma fita de armazenamento unidimensional, levando à ideia da máquina de Turing Universal e dos sistemas Turing-completos .

O primeiro computador eletrônico digital foi desenvolvido no período de abril de 1936 a junho de 1939, no IBM Patent Department, Endicott, New York por Arthur Halsey Dickinson. [30] [31] [32] Neste computador a IBM introduziu pela primeira vez, um dispositivo de cálculo com teclado, processador e saída eletrônica (display). O concorrente da IBM foi o computador eletrônico digital NCR3566, desenvolvido em NCR, Dayton, Ohio por Joseph Desch e Robert Mumma no período de abril de 1939 a agosto de 1939. [33] [34] As máquinas IBM e NCR eram decimais, executando adição e subtração no código de posição binário.

Em dezembro de 1939, John Atanasoff e Clifford Berry completaram seu modelo experimental para provar o conceito do computador Atanasoff-Berry. [35] Este modelo experimental é binário, execução de adição e subtração em código binário octal e é o primeiro dispositivo de computação eletrônico digital binário. O computador Atanasoff-Berry foi projetado para resolver sistemas de equações lineares, embora não fosse programável e nunca foi concluído. [36] O computador Z3, construído pelo inventor alemão Konrad Zuse em 1941, foi a primeira máquina de computação programável e totalmente automática, mas não era eletrônico.

Durante a Segunda Guerra Mundial, a computação balística era feita por mulheres, que eram contratadas como "computadores". O termo computador continuou sendo aquele que se referia principalmente a mulheres (agora vistas como "operadoras") até 1945, após o qual assumiu a definição moderna de maquinaria que atualmente possui. [37]

O ENIAC (Integrador Numérico Eletrônico e Computador) foi o primeiro computador eletrônico de uso geral, anunciado ao público em 1946. Era o Turing-complete, [ citação necessária ] digital e capaz de ser reprogramado para resolver uma gama completa de problemas de computação. As mulheres implementaram a programação para máquinas como o ENIAC e os homens criaram o hardware. [37]

O Manchester Baby foi o primeiro computador eletrônico com programa armazenado. Foi construído na Victoria University of Manchester por Frederic C. Williams, Tom Kilburn e Geoff Tootill, e executou seu primeiro programa em 21 de junho de 1948. [38]

William Shockley, John Bardeen e Walter Brattain, da Bell Labs, inventaram o primeiro transistor funcional, o transistor de ponto de contato, em 1947, seguido pelo transistor de junção bipolar em 1948. [39] [40] Na Universidade de Manchester em 1953, a equipe sob a liderança de Tom Kilburn projetou e construiu o primeiro computador transistorizado, chamado Transistor Computer, uma máquina que usa os transistores recém-desenvolvidos em vez de válvulas. [41] O primeiro computador com transistor de programa armazenado foi o ETL Mark III, desenvolvido pelo Laboratório Eletrotécnico do Japão [42] [43] [44] de 1954 [45] a 1956. [43] No entanto, os primeiros transistores de junção eram dispositivos relativamente volumosos que eram difíceis de fabricar em uma base de produção em massa, o que os limitava a uma série de aplicações especializadas. [46]

Em 1954, 95% dos computadores em serviço eram usados ​​para fins científicos e de engenharia. [47]

Editar computadores pessoais

O transistor de efeito de campo de óxido de metal-silício (MOSFET), também conhecido como transistor MOS, foi inventado por Mohamed Atalla e Dawon Kahng no Bell Labs em 1959. [48] [49] Foi o primeiro transistor verdadeiramente compacto que poderia ser miniaturizado e produzido em massa para uma ampla gama de usos. [46] O MOSFET tornou possível construir chips de circuito integrado de alta densidade. [50] [51] O MOSFET mais tarde levou à revolução do microcomputador, [52] e se tornou a força motriz por trás da revolução do computador. [53] [54] O MOSFET é o transistor mais amplamente usado em computadores, [55] [56] e é o bloco de construção fundamental da eletrônica digital. [57]

O circuito integrado MOS, proposto pela primeira vez por Mohamed Atalla em 1960, [46] levou à invenção do microprocessador. [58] [59] O circuito integrado MOS de porta de silício foi desenvolvido por Federico Faggin na Fairchild Semiconductor em 1968. [60] Isso levou ao desenvolvimento do primeiro microprocessador de chip único, o Intel 4004. [58] o "Projeto Busicom" [61] como o design de CPU de três chips de Masatoshi Shima em 1968, [62] [61] antes de Tadashi Sasaki da Sharp conceber um design de CPU de chip único, que ele discutiu com Busicom e Intel em 1968. [63] ] O Intel 4004 foi desenvolvido como um microprocessador de chip único de 1969 a 1970, liderado por Federico Faggin da Intel, Marcian Hoff e Stanley Mazor, e Masatoshi Shima da Busicom. [61] O chip foi projetado e realizado principalmente por Faggin, com sua tecnologia MOS de porta de silício. [58] O microprocessador levou à revolução do microcomputador, com o desenvolvimento do microcomputador, que mais tarde seria chamado de computador pessoal (PC).

A maioria dos primeiros microprocessadores, como o Intel 8008 e Intel 8080, eram de 8 bits. A Texas Instruments lançou o primeiro microprocessador totalmente de 16 bits, o processador TMS9900, em junho de 1976. [64] Eles usaram o microprocessador nos computadores TI-99/4 e TI-99 / 4A.

A década de 1980 trouxe avanços significativos com o microprocessador que impactou fortemente os campos da engenharia e outras ciências. O microprocessador Motorola 68000 tinha uma velocidade de processamento muito superior à dos outros microprocessadores usados ​​na época. Por causa disso, ter um microprocessador mais novo e mais rápido permitiu que os microcomputadores mais novos que surgiram depois fossem mais eficientes na quantidade de computação que eram capazes de fazer. Isso ficou evidente no lançamento de 1983 do Apple Lisa. O Lisa foi o primeiro computador pessoal com interface gráfica do usuário (GUI) vendido comercialmente. Ele rodava na CPU Motorola 68000 e usava unidades de disquete duplas e um disco rígido de 5 MB para armazenamento. A máquina também tinha 1 MB de RAM usada para executar o software do disco sem reler o disco de forma persistente. [65] Após o fracasso do Lisa em termos de vendas, a Apple lançou seu primeiro computador Macintosh, ainda rodando no microprocessador Motorola 68000, mas com apenas 128 KB de RAM, uma unidade de disquete e nenhum disco rígido para reduzir o preço .

No final da década de 1980 e início da década de 1990, observamos mais avanços nos computadores se tornando mais úteis para propósitos computacionais reais. [ esclarecimento necessário ] Em 1989, a Apple lançou o Macintosh Portable, que pesava 7,3 kg (16 lb) e era extremamente caro, custando US $ 7.300. No lançamento, era um dos laptops mais potentes disponíveis, mas devido ao preço e peso, não teve grande sucesso, sendo descontinuado apenas dois anos depois. Naquele mesmo ano, a Intel lançou o supercomputador Touchstone Delta, que tinha 512 microprocessadores. Esse avanço tecnológico foi muito significativo, pois foi usado como modelo para alguns dos sistemas multiprocessadores mais rápidos do mundo. Foi usado até como protótipo para pesquisadores do Caltech, que usaram o modelo para projetos como processamento em tempo real de imagens de satélite e simulação de modelos moleculares para diversos campos de pesquisa.

Edição de supercomputadores

Em termos de supercomputação, o primeiro supercomputador amplamente conhecido foi o Control Data Corporation (CDC) 6600 [66], construído em 1964 por Seymour Cray. Sua velocidade máxima foi de 40 MHz ou 3 milhões de operações de ponto flutuante por segundo (FLOPS). O CDC 6600 foi substituído pelo CDC 7600 em 1969 [67] embora sua velocidade de clock normal não fosse mais rápida que o 6600, o 7600 era ainda mais rápido devido à sua velocidade de clock de pico, que era aproximadamente 30 vezes mais rápida do que a do 6600. Embora o CDC fosse um líder em supercomputadores, seu relacionamento com Seymour Cray (que já estava se deteriorando) entrou em colapso completamente. em 1972, Cray deixou o CDC e começou sua própria empresa, Cray Research Inc. [68] Com o apoio de investidores em Wall Street, uma indústria alimentada pela Guerra Fria, e sem as restrições que tinha dentro do CDC, ele criou o Cray-1 supercomputador. Com uma velocidade de clock de 80 MHz ou 136 megaFLOPS, Cray desenvolveu um nome para si mesmo no mundo da computação. Em 1982, a Cray Research produziu o Cray X-MP equipado com multiprocessamento e em 1985 lançou o Cray-2, que continuou com a tendência de multiprocessamento e com clock de 1,9 gigaFLOPS. A Cray Research desenvolveu o Cray Y-MP em 1988, mas depois se esforçou para continuar a produzir supercomputadores. Isso se deveu em grande parte ao fato de que a Guerra Fria havia terminado e a demanda por computação de ponta pelas faculdades e pelo governo diminuiu drasticamente e a demanda por unidades de microprocessamento aumentou.

Hoje, os supercomputadores ainda são usados ​​pelos governos do mundo e por instituições educacionais para cálculos como simulações de desastres naturais, pesquisas de variantes genéticas em uma população relacionadas a doenças e muito mais. Em novembro de 2020 [atualização], o supercomputador mais rápido é o Fugaku.

Começando com casos especiais conhecidos, o cálculo de logaritmos e funções trigonométricas pode ser executado procurando números em uma tabela matemática e interpolando entre casos conhecidos. Para diferenças pequenas o suficiente, esta operação linear era precisa o suficiente para uso em navegação e astronomia na Era da Exploração. Os usos da interpolação prosperaram nos últimos 500 anos: no século XX, Leslie Comrie e W.J. Eckert sistematizaram o uso da interpolação em tabelas de números para cálculo de cartão perfurado.

A solução numérica de equações diferenciais, notadamente as equações de Navier-Stokes, foi um estímulo importante para a computação, com a abordagem numérica de Lewis Fry Richardson para resolver equações diferenciais. A primeira previsão do tempo computadorizada foi realizada em 1950 por uma equipe composta pelos meteorologistas americanos Jule Charney, Philip Thompson, Larry Gates e o meteorologista norueguês Ragnar Fjørtoft, o matemático aplicado John von Neumann e a programadora ENIAC Klara Dan von Neumann. [69] [70] [71] Até hoje, alguns dos sistemas de computador mais poderosos da Terra são usados ​​para previsões do tempo. [ citação necessária ]

No final da década de 1960, os sistemas de computador podiam realizar manipulações algébricas simbólicas bem o suficiente para passar em cursos de cálculo de nível universitário. [ citação necessária ]

As mulheres são frequentemente sub-representadas nos campos STEM em comparação com seus colegas homens. [72] Na era moderna anterior à década de 1960, a computação era amplamente vista como "trabalho feminino", uma vez que estava associada à operação de máquinas tabuladoras e outros trabalhos mecânicos de escritório. [73] [74] A precisão dessa associação variou de um lugar para outro. Na América, Margaret Hamilton lembrou-se de um ambiente dominado por homens, [75] enquanto Elsie Shutt lembrou-se da surpresa ao ver que metade dos operadores de computador na Raytheon eram homens. [76] Os operadores de máquinas na Grã-Bretanha eram principalmente mulheres no início dos anos 1970. [77] À medida que essas percepções mudaram e a computação se tornou uma carreira de alto status, o campo tornou-se mais dominado por homens. [78] [79] [80] Professora Janet Abbate, em seu livro Recodificando Gênero, escreve:

Ainda assim, as mulheres foram uma presença significativa nas primeiras décadas da computação. Eles constituíram a maioria dos primeiros programadores de computador durante a Segunda Guerra Mundial, ocuparam cargos de responsabilidade e influência no início da indústria de computadores e foram empregados em números que, embora uma pequena minoria do total, se comparam favoravelmente com a representação feminina em muitos outros áreas da ciência e engenharia. Algumas programadoras dos anos 1950 e 1960 teriam zombado da noção de que a programação seria considerada uma ocupação masculina, mas as experiências e contribuições dessas mulheres foram esquecidas rapidamente. [81]


Trabalhos difíceis, perigosos e monótonos diminuíram

A tecnologia substitui a força muscular. Ilustração: cálculos do próprio autor, usando dados do censo

Em alguns setores, a tecnologia claramente custou empregos, mas Stewart e seus colegas questionam se são realmente empregos que gostaríamos de manter. A tecnologia substitui diretamente a força muscular humana e, ao fazê-lo, aumenta a produtividade e reduz o emprego.

“No Reino Unido, o primeiro setor a sentir esse efeito em qualquer escala foi a agricultura”, diz o estudo.

Em 1871, 6,6% da força de trabalho da Inglaterra e do País de Gales eram classificados como trabalhadores agrícolas. Hoje isso caiu para 0,2%, uma queda de 95% nos números.

O fim do trabalho enfadonho de lavar as mãos. Fotografia: registros do censo da Inglaterra e País de Gales, autores e cálculos # x27

Os dados do censo também fornecem uma visão sobre o impacto sobre os empregos em um setor que já foi grande, mas agora quase esquecido. Em 1901, em uma população de 32,5 milhões na Inglaterra e no País de Gales, 200.000 pessoas lavavam roupas. Em 2011, com uma população de 56,1 milhões, apenas 35.000 pessoas trabalhavam no setor.

“Uma colisão de tecnologias, encanamento interno, eletricidade e a acessível máquina de lavar automática quase acabaram com as grandes lavanderias e o trabalho enfadonho de lavar as mãos”, diz o relatório.


Conteúdo

Edições antigas e medievais

Dispositivos têm sido usados ​​para auxiliar a computação por milhares de anos, principalmente usando correspondência de um para um com os dedos. O dispositivo de contagem mais antigo provavelmente era uma espécie de bastão de contagem. O osso de Lebombo das montanhas entre a Suazilândia e a África do Sul pode ser o mais antigo artefato matemático conhecido. [2] Ele data de 35.000 aC e consiste em 29 entalhes distintos que foram deliberadamente cortados na fíbula de um babuíno. [3] [4] As ajudas de manutenção de registros posteriores em todo o Crescente Fértil incluíram cálculos (esferas de argila, cones, etc.) que representavam contagens de itens, provavelmente gado ou grãos, selados em recipientes de argila não cozidos. [b] [6] [c] O uso de hastes de contagem é um exemplo. O ábaco foi inicialmente usado para tarefas aritméticas. O que agora chamamos de ábaco romano era usado na Babilônia já em c. 2700–2300 aC. Desde então, muitas outras formas de tábuas ou mesas de acerto de contas foram inventadas. Em um contador europeu medieval, um pano xadrez era colocado sobre uma mesa e marcadores eram movidos de acordo com certas regras, como uma ajuda para calcular somas de dinheiro.

Vários computadores analógicos foram construídos nos tempos antigos e medievais para realizar cálculos astronômicos. Isso incluía o astrolábio e o mecanismo de Antikythera do mundo helenístico (c. 150–100 aC). [8] No Egito Romano, o Herói de Alexandria (c. 10–70 DC) fez dispositivos mecânicos incluindo autômatos e um carrinho programável. [9] Outros dispositivos mecânicos antigos usados ​​para realizar um ou outro tipo de cálculo incluem o planisfério e outros dispositivos de computação mecânica inventados por Abu Rayhan al-Biruni (c. 1000 DC) o equatório e astrolábio independente da latitude universal por Abū Ishāq Ibrāhīm al -Zarqālī (c. 1015 DC) os computadores astronômicos analógicos de outros astrônomos e engenheiros muçulmanos medievais e a torre do relógio astronômico de Su Song (1094) durante a dinastia Song. O relógio do castelo, um relógio astronômico mecânico movido a energia hidrelétrica inventado por Ismail al-Jazari em 1206, foi o primeiro computador analógico programável. [10] [11] [12] Ramon Llull inventou o Círculo de Lullian: uma máquina nocional para calcular respostas a questões filosóficas (neste caso, a ver com o Cristianismo) por meio de combinatória lógica. Essa ideia foi retomada por Leibniz séculos depois e, portanto, é um dos elementos fundadores da computação e da ciência da informação.

Ferramentas de cálculo da Renascença Editar

O matemático e físico escocês John Napier descobriu que a multiplicação e divisão dos números podiam ser realizadas pela adição e subtração, respectivamente, dos logaritmos desses números. Enquanto produzia as primeiras tabelas logarítmicas, Napier precisava realizar muitas multiplicações tediosas. Foi nesse ponto que ele projetou seus "ossos de Napier", um dispositivo parecido com um ábaco que simplificou muito os cálculos que envolviam multiplicação e divisão. [d]

Como os números reais podem ser representados como distâncias ou intervalos em uma linha, a régua de cálculo foi inventada na década de 1620, logo após o trabalho de Napier, para permitir que as operações de multiplicação e divisão fossem realizadas significativamente mais rápido do que era possível anteriormente. [13] Edmund Gunter construiu um dispositivo de cálculo com uma única escala logarítmica na Universidade de Oxford. Seu dispositivo simplificou muito os cálculos aritméticos, incluindo multiplicação e divisão. William Oughtred melhorou muito isso em 1630 com sua régua de cálculo circular. Ele seguiu isso com a régua de cálculo moderna em 1632, essencialmente uma combinação de duas regras de Gunter, mantidas juntas com as mãos. As réguas de cálculo foram usadas por gerações de engenheiros e outros trabalhadores profissionais matematicamente envolvidos, até a invenção da calculadora de bolso. [14]

Calculadoras mecânicas Editar

Wilhelm Schickard, um polímata alemão, projetou uma máquina de calcular em 1623 que combinava uma forma mecanizada das hastes de Napier com a primeira máquina de somar mecânica do mundo embutida na base. Como fazia uso de uma engrenagem de um dente, havia circunstâncias em que seu mecanismo de transporte travava. [15] Um incêndio destruiu pelo menos uma das máquinas em 1624 e acredita-se que Schickard estava desanimado demais para construir outra.

Em 1642, ainda adolescente, Blaise Pascal deu início a alguns trabalhos pioneiros em máquinas de calcular e após três anos de esforço e 50 protótipos [16], ele inventou uma calculadora mecânica. [17] [18] Ele construiu vinte dessas máquinas (chamadas de calculadora de Pascal ou Pascaline) nos dez anos seguintes. [19] Nove Pascalines sobreviveram, a maioria das quais estão em exibição em museus europeus. [20] Existe um debate contínuo sobre se Schickard ou Pascal devem ser considerados como o "inventor da calculadora mecânica" e a gama de questões a serem consideradas é discutida em outro lugar. [21]

Gottfried Wilhelm von Leibniz inventou o calculador escalonado e seu famoso mecanismo de tambor escalonado por volta de 1672. Ele tentou criar uma máquina que pudesse ser usada não apenas para adição e subtração, mas utilizaria uma carruagem móvel para permitir uma longa multiplicação e divisão. Leibniz disse uma vez: "É indigno de homens excelentes perderem horas como escravos no trabalho de cálculo, que poderiam ser facilmente relegadas a qualquer outra pessoa se as máquinas fossem usadas." [22] No entanto, Leibniz não incorporou um mecanismo de transporte totalmente bem-sucedido. Leibniz também descreveu o sistema numérico binário, [23] um ingrediente central de todos os computadores modernos. No entanto, até a década de 1940, muitos projetos subsequentes (incluindo as máquinas de Charles Babbage de 1822 e até mesmo o ENIAC de 1945) baseavam-se no sistema decimal. [e]

Por volta de 1820, Charles Xavier Thomas de Colmar criou o que se tornaria no resto do século a primeira calculadora mecânica produzida em massa de sucesso, o Aritmômetro Thomas. Ele poderia ser usado para somar e subtrair, e com uma carruagem móvel o operador também poderia multiplicar e dividir por um processo de multiplicação longa e divisão longa. [24] Ele utilizou um tambor escalonado semelhante em concepção ao inventado por Leibniz. As calculadoras mecânicas permaneceram em uso até a década de 1970.

Processamento de dados de cartão perfurado Editar

Em 1804, o tecelão francês Joseph Marie Jacquard desenvolveu um tear em que o padrão a ser tecido era controlado por uma fita de papel construída a partir de cartões perfurados. A fita de papel pode ser alterada sem alterar o projeto mecânico do tear. Esta foi uma conquista histórica em programabilidade. Sua máquina foi um aprimoramento em relação a teares de tecelagem semelhantes. Os cartões perfurados eram precedidos por bandas perfuradas, como na máquina proposta por Basile Bouchon. Essas bandas inspirariam a gravação de informações para pianos automáticos e, mais recentemente, para máquinas-ferramentas de controle numérico.

No final da década de 1880, o americano Herman Hollerith inventou o armazenamento de dados em cartões perfurados que podiam ser lidos por uma máquina. [25] Para processar esses cartões perfurados, ele inventou o tabulador e a máquina de perfuração. Suas máquinas usavam relés e contadores eletromecânicos. [26] O método de Hollerith foi usado no Censo dos Estados Unidos de 1890. Esse censo foi processado dois anos mais rápido do que o censo anterior. [27] A empresa de Hollerith eventualmente se tornou o núcleo da IBM.

Em 1920, as máquinas de tabulação eletromecânicas podiam adicionar, subtrair e imprimir os totais acumulados. [28] As funções da máquina eram dirigidas pela inserção de dezenas de jumpers em painéis de controle removíveis. Quando os Estados Unidos instituíram a Previdência Social em 1935, os sistemas de cartões perfurados da IBM foram usados ​​para processar registros de 26 milhões de trabalhadores. [29] Os cartões perfurados tornaram-se onipresentes na indústria e no governo para contabilidade e administração.

Artigos de Leslie Comrie sobre métodos de cartão perfurado e publicação de W. J. Eckert de Métodos de cartão perfurado em computação científica em 1940, descreveu técnicas de cartões perfurados suficientemente avançadas para resolver algumas equações diferenciais [30] ou realizar multiplicação e divisão usando representações de ponto flutuante, tudo em cartões perfurados e máquinas de registro de unidades. Essas máquinas foram usadas durante a Segunda Guerra Mundial para processamento de estatísticas criptográficas, bem como para um grande número de usos administrativos. O Astronomical Computing Bureau, da Columbia University, realizou cálculos astronômicos que representam o estado da arte da computação. [31] [32]

Calculadoras Editar

No século 20, as primeiras calculadoras mecânicas, caixas registradoras, máquinas de contabilidade e assim por diante foram reprojetadas para usar motores elétricos, com a posição da engrenagem como a representação do estado de uma variável. A palavra "computador" era um título de trabalho atribuído principalmente a mulheres que usavam essas calculadoras para realizar cálculos matemáticos. [33] Na década de 1920, o interesse do cientista britânico Lewis Fry Richardson na previsão do tempo o levou a propor computadores humanos e análises numéricas para modelar o tempo até hoje, os computadores mais poderosos da Terra são necessários para modelar adequadamente seu tempo usando o Navier– Equações de Stokes. [34]

Empresas como Friden, Marchant Calculator e Monroe fabricaram calculadoras mecânicas de mesa na década de 1930 que podiam somar, subtrair, multiplicar e dividir. [35] Em 1948, o Curta foi introduzido pelo inventor austríaco Curt Herzstark. Era uma pequena calculadora mecânica de manivela e, como tal, descendente do Stepped Reckoner de Gottfried Leibniz e do Aritmômetro de Thomas.

O primeiro do mundo desktop totalmente eletrônico A calculadora foi a British Bell Punch ANITA, lançada em 1961. [36] [37] Ela usava tubos de vácuo, tubos catódicos frios e Dekatrons em seus circuitos, com 12 tubos catódicos "Nixie" frios para sua exibição. A ANITA vendeu bem, pois era a única calculadora eletrônica de mesa disponível, e era silenciosa e rápida. A tecnologia de tubo foi substituída em junho de 1963 pelo Friden EC-130 fabricado nos Estados Unidos, que tinha um design totalmente transistorizado, uma pilha de quatro números de 13 dígitos exibidos em um CRT de 5 polegadas (13 cm) e introduziu a notação polonesa reversa (RPN).

Charles Babbage, um engenheiro mecânico e polímata inglês, originou o conceito de um computador programável. Considerado o "pai do computador", [38] ele conceituou e inventou o primeiro computador mecânico no início do século XIX. Depois de trabalhar em seu revolucionário motor de diferença, projetado para auxiliar nos cálculos de navegação, em 1833 ele percebeu que um projeto muito mais geral, um motor analítico, era possível. A entrada de programas e dados deveria ser fornecida à máquina por meio de cartões perfurados, método usado na época para direcionar teares mecânicos como o tear Jacquard. Para saída, a máquina teria uma impressora, um plotter de curvas e um sino. A máquina também seria capaz de inserir números em cartões para serem lidos posteriormente. Ele empregava aritmética de ponto fixo de base 10 comum.

O motor incorporou uma unidade lógica aritmética, fluxo de controle na forma de ramificação e loops condicionais e memória integrada, tornando-o o primeiro projeto para um computador de uso geral que poderia ser descrito em termos modernos como Turing-completo. [39] [40]

Deveria haver um armazenamento, ou memória, capaz de armazenar 1.000 números de 40 dígitos decimais cada (ca. 16,7 kB). Uma unidade aritmética, chamada de "moinho", seria capaz de realizar todas as quatro operações aritméticas, além de comparações e, opcionalmente, raízes quadradas. Inicialmente foi concebido como um motor diferencial curvado para trás sobre si mesmo, em um layout geralmente circular, [41] com a longa loja saindo de um lado. (Desenhos posteriores mostram um layout de grade regularizado.) [42] Como a unidade de processamento central (CPU) em um computador moderno, a usina dependeria de seus próprios procedimentos internos, aproximadamente equivalentes ao microcódigo em CPUs modernas, para serem armazenados na forma de pinos inseridos em tambores rotativos chamados "barris", para executar algumas das instruções mais complexas que o programa do usuário pode especificar. [43]

A linguagem de programação a ser empregada pelos usuários era semelhante às linguagens assembly modernas. Loops e ramificações condicionais eram possíveis e, portanto, a linguagem como concebida teria sido Turing-complete, conforme definido posteriormente por Alan Turing. Três tipos diferentes de cartões perfurados foram usados: um para operações aritméticas, um para constantes numéricas e um para operações de carga e armazenamento, transferindo números da loja para a unidade aritmética ou vice-versa.Havia três leitores separados para os três tipos de cartão.

A máquina estava cerca de um século à frente de seu tempo. No entanto, o projeto foi retardado por vários problemas, incluindo disputas com as peças de construção do maquinista-chefe. Todas as peças de sua máquina tinham que ser feitas à mão - esse era um grande problema para uma máquina com milhares de peças. Eventualmente, o projeto foi dissolvido com a decisão do governo britânico de cessar o financiamento. O fracasso de Babbage em completar o mecanismo analítico pode ser atribuído principalmente a dificuldades não apenas políticas e financeiras, mas também ao seu desejo de desenvolver um computador cada vez mais sofisticado e de avançar mais rápido do que qualquer outra pessoa poderia seguir. Ada Lovelace traduziu e acrescentou notas ao "Esboço do motor analítico"por Luigi Federico Menabrea. Esta parece ser a primeira descrição de programação publicada, então Ada Lovelace é amplamente considerada como a primeira programadora de computador. [44]

Seguindo Babbage, embora não soubesse de seu trabalho anterior, estava Percy Ludgate, funcionário de um comerciante de milho em Dublin, Irlanda. Ele projetou independentemente um computador mecânico programável, que ele descreveu em um trabalho publicado em 1909. [45] [46]

Na primeira metade do século 20, os computadores analógicos foram considerados por muitos como o futuro da computação. Esses dispositivos usavam os aspectos continuamente mutáveis ​​dos fenômenos físicos, como quantidades elétricas, mecânicas ou hidráulicas, para modelar o problema a ser resolvido, em contraste com os computadores digitais que representavam quantidades variáveis ​​simbolicamente, conforme seus valores numéricos mudam. Como um computador analógico não usa valores discretos, mas sim valores contínuos, os processos não podem ser repetidos de forma confiável com equivalência exata, como acontece com as máquinas de Turing. [47]

O primeiro computador analógico moderno foi uma máquina de previsão das marés, inventada por Sir William Thomson, mais tarde Lord Kelvin, em 1872. Usava um sistema de polias e fios para calcular automaticamente os níveis de marés previstos para um determinado período em um determinado local e era de grande utilidade para a navegação em águas rasas. Seu dispositivo foi a base para novos desenvolvimentos na computação analógica. [48]

O analisador diferencial, um computador analógico mecânico projetado para resolver equações diferenciais por integração usando mecanismos de roda e disco, foi conceituado em 1876 por James Thomson, irmão do mais famoso Lord Kelvin. Ele explorou a possível construção de tais calculadoras, mas foi impedido pelo torque de saída limitado dos integradores de bola e disco. [49] Em um analisador diferencial, a saída de um integrador conduziu a entrada do próximo integrador, ou uma saída de gráfico.

Um avanço importante na computação analógica foi o desenvolvimento dos primeiros sistemas de controle de fogo para atirar em navios de longo alcance. Quando o alcance da artilharia aumentou dramaticamente no final do século 19, não era mais uma simples questão de calcular o ponto de mira adequado, dados os tempos de vôo dos projéteis. Vários observadores a bordo do navio transmitiam medidas de distância e observações para uma estação central de plotagem. Lá, as equipes de direção de fogo informavam a localização, velocidade e direção do navio e seu alvo, bem como vários ajustes para o efeito Coriolis, efeitos do clima no ar e outros ajustes, o computador então geraria uma solução de disparo, que seria alimentado para as torres para colocar. Em 1912, o engenheiro britânico Arthur Pollen desenvolveu o primeiro computador analógico mecânico movido a eletricidade (chamado na época de Argo Clock). [ citação necessária ] Foi usado pela Marinha Imperial Russa na Primeira Guerra Mundial. [ citação necessária O sistema alternativo de controle de fogo Dreyer Table foi instalado em navios de capital britânicos em meados de 1916.

Dispositivos mecânicos também foram usados ​​para auxiliar na precisão do bombardeio aéreo. O Drift Sight foi o primeiro auxílio desse tipo, desenvolvido por Harry Wimperis em 1916 para o Royal Naval Air Service que mede a velocidade do vento do ar e usa essa medida para calcular os efeitos do vento na trajetória das bombas. O sistema foi posteriormente melhorado com o Course Setting Bomb Sight, e atingiu o clímax com a mira de bomba da Segunda Guerra Mundial, a mira Mark XIV (Comando de Bombardeiro RAF) e o Norden [50] (United States Army Air Forces).

A arte da computação analógica mecânica atingiu seu apogeu com o analisador diferencial, [51] construído por H. L. Hazen e Vannevar Bush no MIT a partir de 1927, que se baseou nos integradores mecânicos de James Thomson e nos amplificadores de torque inventados por H. W. Nieman. Uma dúzia desses dispositivos foram construídos antes que sua obsolescência se tornasse óbvia, o mais poderoso foi construído na Escola de Engenharia Elétrica Moore da Universidade da Pensilvânia, onde o ENIAC foi construído.

Um computador analógico totalmente eletrônico foi construído por Helmut Hölzer em 1942 no Centro de Pesquisa do Exército de Peenemünde. [52] [53] [54]

Na década de 1950, o sucesso dos computadores eletrônicos digitais representou o fim da maioria das máquinas de computação analógicas, mas os computadores analógicos híbridos, controlados pela eletrônica digital, permaneceram em uso substancial nas décadas de 1950 e 1960 e, posteriormente, em algumas aplicações especializadas.

O princípio do computador moderno foi descrito pela primeira vez pelo cientista da computação Alan Turing, que expôs a ideia em seu artigo seminal de 1936, [55] Em Números Computáveis. Turing reformulou os resultados de 1931 de Kurt Gödel sobre os limites da prova e da computação, substituindo a linguagem formal baseada na aritmética universal de Gödel pelos dispositivos hipotéticos formais e simples que ficaram conhecidos como máquinas de Turing. Ele provou que alguma dessas máquinas seria capaz de realizar qualquer cálculo matemático concebível se fosse representável como um algoritmo. Ele passou a provar que não havia solução para o Entscheidungsproblem mostrando primeiro que o problema da parada para máquinas de Turing é indecidível: em geral, não é possível decidir algoritmicamente se uma dada máquina de Turing irá algum dia parar.

Ele também introduziu a noção de uma "máquina universal" (agora conhecida como máquina de Turing universal), com a ideia de que tal máquina poderia realizar as tarefas de qualquer outra máquina, ou em outras palavras, é comprovadamente capaz de computar qualquer coisa que é computável executando um programa armazenado em fita, permitindo que a máquina seja programável. Von Neumann reconheceu que o conceito central do computador moderno foi devido a este artigo. [56] As máquinas de Turing são até hoje um objeto central de estudo na teoria da computação. Exceto pelas limitações impostas por seus armazenamentos de memória finita, os computadores modernos são considerados Turing-completos, ou seja, eles têm capacidade de execução de algoritmo equivalente a uma máquina de Turing universal.

Computadores eletromecânicos Editar

A era da computação moderna começou com uma onda de desenvolvimento antes e durante a Segunda Guerra Mundial. A maioria dos computadores digitais construídos neste período eram eletromecânicos - interruptores elétricos acionavam relés mecânicos para realizar o cálculo. Esses dispositivos tinham uma baixa velocidade de operação e foram substituídos por computadores totalmente elétricos muito mais rápidos, originalmente usando tubos de vácuo.

O Z2 foi um dos primeiros exemplos de computador de relé eletromecânico e foi criado pelo engenheiro alemão Konrad Zuse em 1940. Foi uma melhoria em seu Z1 anterior, embora usasse a mesma memória mecânica, substituiu a aritmética e a lógica de controle por elétrica circuitos de relé. [57]

No mesmo ano, dispositivos eletromecânicos chamados bombas foram construídos por criptologistas britânicos para ajudar a decifrar mensagens secretas criptografadas pela máquina Enigma alemã durante a Segunda Guerra Mundial. O projeto inicial da bomba foi criado em 1939 na Escola de Código e Cypher do Governo do Reino Unido (GC & ampCS) em Bletchley Park por Alan Turing, [58] com um refinamento importante desenvolvido em 1940 por Gordon Welchman. [59] O projeto de engenharia e construção foram obra de Harold Keen da British Tabulating Machine Company. Foi um desenvolvimento substancial de um dispositivo que havia sido projetado em 1938 pelo criptologista Marian Rejewski do Cipher Bureau polonês, e conhecido como a "bomba criptológica" (polonês: "bomba kryptologiczna").

Em 1941, Zuse seguiu sua máquina anterior com o Z3, [57] o primeiro computador digital eletromecânico programável e totalmente automático em funcionamento. [60] O Z3 foi construído com 2.000 relés, implementando um comprimento de palavra de 22 bits que operava em uma frequência de clock de cerca de 5–10 Hz. [61] O código do programa e os dados foram armazenados em filme perfurado. Era bastante semelhante às máquinas modernas em alguns aspectos, sendo pioneiro em vários avanços, como os números de ponto flutuante. A substituição do sistema decimal difícil de implementar (usado no projeto anterior de Charles Babbage) pelo sistema binário mais simples significava que as máquinas de Zuse eram mais fáceis de construir e potencialmente mais confiáveis, dadas as tecnologias disponíveis na época. [62] O Z3 foi provado ser uma máquina Turing-completa em 1998 por Raúl Rojas. [63] Em dois pedidos de patente de 1936, Zuse também antecipou que as instruções da máquina poderiam ser armazenadas no mesmo armazenamento usado para os dados - o ponto-chave do que ficou conhecido como a arquitetura de von Neumann, implementada pela primeira vez em 1948 na América no IBM SSEC eletromecânico e na Grã-Bretanha, no Manchester Baby, totalmente eletrônico. [64]

Zuse sofreu reveses durante a Segunda Guerra Mundial, quando algumas de suas máquinas foram destruídas durante as campanhas de bombardeio dos Aliados. Aparentemente, seu trabalho permaneceu em grande parte desconhecido para engenheiros no Reino Unido e nos Estados Unidos até muito mais tarde, embora pelo menos a IBM estivesse ciente disso ao financiar sua empresa inicial no pós-guerra em 1946 em troca de uma opção sobre as patentes de Zuse.

Em 1944, o Harvard Mark I foi construído nos laboratórios Endicott da IBM. [65] Era um computador eletromecânico de uso geral semelhante ao Z3, mas não era totalmente Turing-completo.

Edição de computação digital

O termo digital foi sugerido pela primeira vez por George Robert Stibitz e se refere a quando um sinal, como uma voltagem, não é usado para representar diretamente um valor (como seria em um computador analógico), mas para codificá-lo. Em novembro de 1937, George Stibitz, então trabalhando na Bell Labs (1930–1941), [66] completou uma calculadora baseada em relé que ele posteriormente apelidou de "Modelo K" (para "ktabela itchen ", na qual ele a montou), que se tornou o primeiro somador binário. [67] Normalmente, os sinais têm dois estados - baixo (geralmente representando 0) e alto (geralmente representando 1), mas às vezes a lógica de três valores é usada , especialmente na memória de alta densidade. Os computadores modernos geralmente usam lógica binária, mas muitas das primeiras máquinas eram decimais. Nessas máquinas, a unidade básica de dados era o dígito decimal, codificado em um dos vários esquemas, incluindo decimal ou Código BCD, bi-quinário, excesso-3 e dois em cinco.

A base matemática da computação digital é a álgebra booleana, desenvolvida pelo matemático britânico George Boole em seu trabalho As Leis do Pensamento, publicado em 1854. Sua álgebra booleana foi posteriormente refinada na década de 1860 por William Jevons e Charles Sanders Peirce, e foi apresentada pela primeira vez sistematicamente por Ernst Schröder e A. N. Whitehead. [68] Em 1879, Gottlob Frege desenvolve a abordagem formal da lógica e propõe a primeira linguagem lógica para equações lógicas. [69]

Na década de 1930 e trabalhando de forma independente, o engenheiro eletrônico americano Claude Shannon e o lógico soviético Victor Shestakov mostraram uma correspondência direta entre os conceitos da lógica booleana e certos circuitos elétricos, agora chamados de portas lógicas, que agora são onipresentes em computadores digitais. [70] Eles mostraram [71] que relés e interruptores eletrônicos podem realizar as expressões da álgebra booleana. Esta tese fundamentou essencialmente o projeto prático de circuitos digitais. Além disso, o artigo de Shannon fornece um diagrama de circuito correto para um somador binário digital de 4 bits. [70]: pp.494-495

Edição de processamento eletrônico de dados

Elementos de circuito puramente eletrônico logo substituíram seus equivalentes mecânicos e eletromecânicos, ao mesmo tempo que o cálculo digital substituiu o analógico. Máquinas como o Z3, o Atanasoff – Berry Computer, os computadores Colossus e o ENIAC foram construídos manualmente, usando circuitos contendo relés ou válvulas (tubos de vácuo), e muitas vezes usavam cartões perfurados ou fita de papel perfurada para entrada e como o principal meio de armazenamento (não volátil). [72]

O engenheiro Tommy Flowers ingressou no ramo de telecomunicações do General Post Office em 1926. Enquanto trabalhava na estação de pesquisa em Dollis Hill na década de 1930, ele começou a explorar o possível uso da eletrônica para a central telefônica. O equipamento experimental que ele construiu em 1934 entrou em operação 5 anos depois, convertendo uma parte da rede de central telefônica em um sistema de processamento eletrônico de dados, usando milhares de tubos de vácuo. [48]

Nos Estados Unidos, em 1940, Arthur Dickinson (IBM) inventou o primeiro computador eletrônico digital. [73] Este dispositivo de cálculo era totalmente eletrônico - controle, cálculos e saída (o primeiro display eletrônico). [74] John Vincent Atanasoff e Clifford E. Berry da Iowa State University desenvolveram o Atanasoff – Berry Computer (ABC) em 1942, [75] o primeiro dispositivo binário de cálculo digital eletrônico. [76] Este projeto era semi-eletrônico (controle eletromecânico e cálculos eletrônicos), e usava cerca de 300 tubos de vácuo, com capacitores fixados em um tambor rotativo mecanicamente para a memória. No entanto, seu gravador / leitor de cartão de papel não era confiável e o sistema de contato regenerativo do tambor era mecânico. A natureza especial da máquina e a falta de programas armazenados e alteráveis ​​a distinguem dos computadores modernos. [77]

Computadores cuja lógica foi construída principalmente com tubos de vácuo são agora conhecidos como computadores de primeira geração.

O computador eletrônico programável Editar

Durante a Segunda Guerra Mundial, os decifradores britânicos em Bletchley Park, 40 milhas (64 km) ao norte de Londres, alcançaram vários sucessos ao quebrar as comunicações militares criptografadas do inimigo. A máquina de criptografia alemã, Enigma, foi primeiro atacada com a ajuda de bombas eletromecânicas. [78] As mulheres costumavam operar essas máquinas bombardeiras. [79] [80] Eles descartaram possíveis configurações Enigma executando cadeias de deduções lógicas implementadas eletricamente. A maioria das possibilidades levava a uma contradição e as poucas restantes podiam ser testadas manualmente.

Os alemães também desenvolveram uma série de sistemas de criptografia de teleimpressoras, bem diferentes do Enigma. A máquina Lorenz SZ 40/42 foi usada para comunicações de alto nível do Exército, batizada de "Tunny" pelos britânicos. As primeiras interceptações de mensagens de Lorenz começaram em 1941. Como parte de um ataque a Tunny, Max Newman e seus colegas desenvolveram o Heath Robinson, uma máquina de função fixa para ajudar na quebra de código. [81] Tommy Flowers, um engenheiro sênior da Post Office Research Station [82] foi recomendado a Max Newman por Alan Turing [83] e passou onze meses desde o início de fevereiro de 1943 projetando e construindo o computador Colossus mais flexível (que substituiu o Heath Robinson). [84] [85] Após um teste funcional em dezembro de 1943, o Colossus foi enviado para Bletchley Park, onde foi entregue em 18 de janeiro de 1944 [86] e atacou sua primeira mensagem em 5 de fevereiro. [87]

Colossus foi o primeiro computador eletrônico programável digital do mundo. [48] ​​Ele usou um grande número de válvulas (tubos de vácuo). Ele tinha entrada de fita de papel e era capaz de ser configurado para realizar uma variedade de operações lógicas booleanas em seus dados, [88] mas não era Turing-completo. A entrada de dados no Colossus foi feita pela leitura fotoelétrica de uma transcrição em fita de papel da mensagem interceptada criptografada. Isso foi organizado em um loop contínuo para que pudesse ser lido e relido várias vezes - não havendo armazenamento interno para os dados. O mecanismo de leitura funcionou a 5.000 caracteres por segundo, com a fita de papel movendo-se a 40 pés / s (12,2 m / s 27,3 mph). O Colossus Mark 1 continha 1.500 válvulas termiônicas (tubos), mas o Mark 2 com 2.400 válvulas e cinco processadores em paralelo, era 5 vezes mais rápido e mais simples de operar do que o Mark 1, acelerando muito o processo de decodificação. Mark 2 foi projetado enquanto Mark 1 estava sendo construído. Allen Coombs assumiu a liderança do projeto Colossus Mark 2 quando Tommy Flowers mudou para outros projetos. [89] O primeiro Mark 2 Colossus tornou-se operacional em 1 de junho de 1944, bem a tempo para a invasão aliada da Normandia no Dia D.

A maior parte do uso do Colossus foi na determinação das posições iniciais dos rotores Tunny para uma mensagem, que foi chamada de "ajuste da roda". O Colossus incluiu o primeiro uso de registradores de deslocamento e matrizes sistólicas, permitindo cinco testes simultâneos, cada um envolvendo até 100 cálculos booleanos. Isso permitiu que cinco posições de início possíveis diferentes fossem examinadas para um trânsito da fita de papel. [90] Além da configuração da roda, alguns Colossi posteriores incluíram mecanismos destinados a ajudar a determinar padrões de pinos conhecidos como "quebra de roda". Ambos os modelos eram programáveis ​​usando interruptores e painéis de plugue de uma forma que seus predecessores não eram. Dez Mk 2 Colossi estavam operacionais no final da guerra.

Sem o uso dessas máquinas, os Aliados teriam sido privados da valiosa inteligência obtida com a leitura da vasta quantidade de mensagens telegráficas de alto nível criptografadas entre o Alto Comando Alemão (OKW) e seus comandos do exército em toda a Europa ocupada. Detalhes de sua existência, design e uso foram mantidos em segredo até a década de 1970. Winston Churchill emitiu pessoalmente uma ordem para sua destruição em pedaços não maiores do que a mão de um homem, para manter em segredo que os britânicos eram capazes de quebrar cifras Lorenz SZ (de máquinas de cifragem de rotor alemãs) durante a Guerra Fria que se aproximava. Duas das máquinas foram transferidas para o GCHQ recém-formado e as outras foram destruídas. Como resultado, as máquinas não foram incluídas em muitas histórias da computação. [f] Uma cópia de trabalho reconstruída de uma das máquinas Colossus está agora em exibição no Bletchley Park.

O ENIAC (Integrador Numérico Eletrônico e Computador) construído nos EUA foi o primeiro computador eletrônico programável construído nos EUA. Embora o ENIAC fosse semelhante ao Colossus, era muito mais rápido e flexível. Era inequivocamente um dispositivo Turing-completo e poderia computar qualquer problema que coubesse em sua memória. Como o Colossus, um "programa" no ENIAC era definido pelos estados de seus cabos patch e switches, muito longe das máquinas eletrônicas de programa armazenadas que vieram depois. Uma vez que o programa foi escrito, ele teve que ser mecanicamente colocado na máquina com o reset manual dos plugues e interruptores. Os programadores do ENIAC eram mulheres com formação em matemática. [92]

Ele combinava a alta velocidade da eletrônica com a capacidade de ser programado para muitos problemas complexos. Ele poderia somar ou subtrair 5.000 vezes por segundo, mil vezes mais rápido do que qualquer outra máquina. Ele também tinha módulos para multiplicar, dividir e criar raiz quadrada. A memória de alta velocidade foi limitada a 20 palavras (equivalente a cerca de 80 bytes).Construído sob a direção de John Mauchly e J. Presper Eckert na Universidade da Pensilvânia, o desenvolvimento e a construção do ENIAC duraram de 1943 até a operação total no final de 1945. A máquina era enorme, pesando 30 toneladas, usando 200 quilowatts de energia elétrica e continha mais de 18.000 tubos de vácuo, 1.500 relés e centenas de milhares de resistores, capacitores e indutores. [93] Um de seus maiores feitos de engenharia foi minimizar os efeitos do desgaste do tubo, que era um problema comum na confiabilidade da máquina naquela época. A máquina esteve em uso quase constante pelos dez anos seguintes.

As primeiras máquinas de computação eram programáveis ​​no sentido de que podiam seguir a sequência de etapas para a qual foram configuradas para executar, mas o "programa", ou etapas que a máquina deveria executar, geralmente eram configuradas alterando-se como os fios eram conectados em um patch panel ou plugboard. A "reprogramação", quando possível, foi um processo trabalhoso, começando com os engenheiros elaborando fluxogramas, projetando a nova configuração e, em seguida, o processo muitas vezes exigente de remendar os painéis de remendo fisicamente. [94] Computadores com programas armazenados, por outro lado, foram projetados para armazenar um conjunto de instruções (um programa), na memória - normalmente a mesma memória dos dados armazenados.

Edição de Teoria

A base teórica para o computador de programa armazenado foi proposta por Alan Turing em seu artigo de 1936. Em 1945, Turing ingressou no Laboratório Físico Nacional e começou a trabalhar no desenvolvimento de um computador digital com programa armazenado eletrônico. Seu relatório de 1945 'Proposta de Calculadora Eletrônica' foi a primeira especificação para tal dispositivo.

Enquanto isso, John von Neumann, da Moore School of Electrical Engineering, University of Pennsylvania, divulgou seu Primeiro esboço de um relatório sobre o EDVAC em 1945. Embora substancialmente semelhante ao projeto de Turing e contendo comparativamente poucos detalhes de engenharia, a arquitetura de computador que ele delineou tornou-se conhecida como a "arquitetura de von Neumann". Turing apresentou um artigo mais detalhado ao Comitê Executivo do National Physical Laboratory (NPL) em 1946, apresentando o primeiro projeto razoavelmente completo de um computador com programa armazenado, um dispositivo que ele chamou de Automatic Computing Engine (ACE). No entanto, o projeto EDVAC mais conhecido de John von Neumann, que conhecia o trabalho teórico de Turing, recebeu mais publicidade, apesar de sua natureza incompleta e questionável falta de atribuição das fontes de algumas das ideias. [48]

Turing achava que a velocidade e o tamanho da memória do computador eram elementos cruciais, então ele propôs uma memória de alta velocidade do que hoje seria chamada de 25 KB, acessada a uma velocidade de 1 MHz. O ACE implementou chamadas de sub-rotina, enquanto o EDVAC não, e o ACE também usou Instruções abreviadas de computador, uma forma inicial de linguagem de programação.

Manchester Baby Edit

O Manchester Baby foi o primeiro computador com programa armazenado eletrônico do mundo. Foi construído na Victoria University of Manchester por Frederic C. Williams, Tom Kilburn e Geoff Tootill, e executou seu primeiro programa em 21 de junho de 1948. [95]

A máquina não foi projetada para ser um computador prático, mas sim como um teste para o tubo Williams, o primeiro dispositivo de armazenamento digital de acesso aleatório. [96] Inventado por Freddie Williams e Tom Kilburn [97] [98] na Universidade de Manchester em 1946 e 1947, era um tubo de raios catódicos que usava um efeito chamado emissão secundária para armazenar temporariamente dados binários eletrônicos e foi usado com sucesso em vários computadores antigos.

Embora o computador fosse pequeno e primitivo, era uma prova de conceito para resolver um único problema. O bebê foi a primeira máquina de trabalho a conter todos os elementos essenciais para um computador eletrônico moderno. Assim que o bebê demonstrou a viabilidade de seu design, um projeto foi iniciado na universidade para desenvolver o design em um computador mais utilizável, o Manchester Mark 1. O Mark 1, por sua vez, rapidamente se tornou o protótipo dos Ferranti Mark 1, o primeiro computador de uso geral disponível comercialmente no mundo. [100]

O bebê tinha um comprimento de palavra de 32 bits e uma memória de 32 palavras. Como foi projetado para ser o computador de programa armazenado mais simples possível, as únicas operações aritméticas implementadas no hardware foram subtração e negação, outras operações aritméticas foram implementadas no software. O primeiro dos três programas escritos para a máquina encontrou o divisor adequado mais alto de 2 18 (262,144), um cálculo que se sabia levaria muito tempo para ser executado - e assim prova a confiabilidade do computador - testando todos os números inteiros de 2 18 - 1 para baixo, conforme a divisão foi implementada por subtração repetida do divisor. O programa consistia em 17 instruções e rodou por 52 minutos antes de atingir a resposta correta de 131.072, depois que o Bebê realizou 3,5 milhões de operações (para uma velocidade efetiva da CPU de 1,1 kIPS). As sucessivas aproximações da resposta foram exibidas como as posições sucessivas de um ponto brilhante no tubo de Williams.

Manchester Mark 1 Editar

A máquina experimental levou ao desenvolvimento do Manchester Mark 1 na Universidade de Manchester. [101] O trabalho começou em agosto de 1948, e a primeira versão estava operacional em abril de 1949, um programa escrito para pesquisar os primos de Mersenne funcionou sem erros por nove horas na noite de 16/17 de junho de 1949. A operação bem-sucedida da máquina foi amplamente divulgada na imprensa britânica, que usava a frase "cérebro eletrônico" para descrevê-lo aos leitores.

O computador é especialmente historicamente significativo por causa de sua inclusão pioneira de registradores de índice, uma inovação que tornou mais fácil para um programa ler sequencialmente por meio de uma série de palavras na memória. Trinta e quatro patentes resultaram do desenvolvimento da máquina, e muitas das ideias por trás de seu design foram incorporadas em produtos comerciais subsequentes, como o IBM 701 e 702, bem como o Ferranti Mark 1. Os designers principais, Frederic C. Williams e Tom Kilburn , concluíram a partir de suas experiências com o Mark 1 que os computadores seriam usados ​​mais em funções científicas do que em matemática pura. Em 1951, eles começaram o trabalho de desenvolvimento de Meg, o sucessor do Mark 1, que incluiria uma unidade de ponto flutuante.

Edição EDSAC

O outro candidato a ser o primeiro computador com programa armazenado digital reconhecidamente moderno [102] foi o EDSAC, [103] projetado e construído por Maurice Wilkes e sua equipe no Laboratório de Matemática da Universidade de Cambridge na Inglaterra na Universidade de Cambridge em 1949. A máquina foi inspirada no seminal de John von Neumann Primeiro esboço de um relatório sobre o EDVAC e foi um dos primeiros computadores com programa armazenado digital eletrônico operacional útil. [g]

O EDSAC executou seus primeiros programas em 6 de maio de 1949, quando calculou uma tabela de quadrados [106] e uma lista de números primos. O EDSAC também serviu de base para o primeiro computador comercialmente aplicado, o LEO I, usado por uma empresa de fabricação de alimentos J. Lyons & amp Co. Ltd .. O EDSAC 1 foi finalmente encerrado em 11 de julho de 1958, tendo sido substituído pelo EDSAC 2, que permaneceu em uso até 1965. [107]

O "cérebro" [computador] pode um dia descer ao nosso nível [das pessoas comuns] e ajudar com nossos cálculos de imposto de renda e contabilidade. Mas isso é especulação e não há sinal disso até agora.

EDVAC Edit

Os inventores do ENIAC John Mauchly e J. Presper Eckert propuseram a construção do EDVAC em agosto de 1944, e o trabalho de design do EDVAC começou na Escola de Engenharia Elétrica Moore da Universidade da Pensilvânia, antes que o ENIAC estivesse totalmente operacional. O projeto implementou uma série de melhorias arquitetônicas e lógicas importantes concebidas durante a construção do ENIAC e uma memória de acesso serial de alta velocidade. [109] No entanto, Eckert e Mauchly deixaram o projeto e sua construção fracassou.

Ele foi finalmente entregue ao Laboratório de Pesquisa Balística do Exército dos EUA no Campo de Provas de Aberdeen em agosto de 1949, mas devido a uma série de problemas, o computador só começou a operar em 1951, e apenas de forma limitada.

Computadores comerciais Editar

O primeiro computador comercial foi o Ferranti Mark 1, construído pela Ferranti e entregue à Universidade de Manchester em fevereiro de 1951. Era baseado no Manchester Mark 1. As principais melhorias em relação ao Manchester Mark 1 estavam no tamanho do armazenamento primário ( usando tubos Williams de acesso aleatório), armazenamento secundário (usando um tambor magnético), um multiplicador mais rápido e instruções adicionais. O tempo de ciclo básico era de 1,2 milissegundos, e uma multiplicação poderia ser concluída em cerca de 2,16 milissegundos. O multiplicador usou quase um quarto dos 4.050 tubos de vácuo (válvulas) da máquina. [110] Uma segunda máquina foi adquirida pela Universidade de Toronto, antes que o design fosse revisado para o Mark 1 Star. Pelo menos sete dessas máquinas posteriores foram entregues entre 1953 e 1957, uma delas para os laboratórios da Shell em Amsterdã. [111]

Em outubro de 1947, os diretores da J. Lyons & amp Company, uma empresa de catering britânica famosa por suas lojas de chá, mas com fortes interesses em novas técnicas de gerenciamento de escritório, decidiram assumir um papel ativo na promoção do desenvolvimento comercial de computadores. O computador LEO I tornou-se operacional em abril de 1951 [112] e executou o primeiro trabalho regular de computador de escritório de rotina. Em 17 de novembro de 1951, a empresa J. Lyons iniciou a operação semanal de um trabalho de avaliações de panificação no LEO (Lyons Electronic Office). Este foi o primeiro aplicativo de negócios a entrar no ar em um computador com programa armazenado. [h]

Em junho de 1951, o UNIVAC I (Universal Automatic Computer) foi entregue ao U.S. Census Bureau. A Remington Rand vendeu 46 máquinas por mais de US $ 1 milhão cada (US $ 9,97 milhões em 2021). [113] UNIVAC foi o primeiro computador "produzido em massa". Usou 5.200 tubos de vácuo e consumiu 125 kW de potência. Seu armazenamento principal eram linhas de atraso de mercúrio de acesso serial, capazes de armazenar 1.000 palavras de 11 dígitos decimais mais sinal (palavras de 72 bits).

A IBM lançou um computador menor e mais acessível em 1954 que se mostrou muito popular. [i] [115] O IBM 650 pesava mais de 900 kg, a fonte de alimentação anexada pesava cerca de 1350 kg e ambos eram mantidos em gabinetes separados de aproximadamente 1,5 metros por 0,9 metros por 1,8 metros. Custou US $ 500.000 [116] ($ 4,82 milhões em 2021) ou poderia ser alugado por US $ 3.500 ao mês ($ 30.000 em 2021). [113] Sua memória de bateria era originalmente de 2.000 palavras de dez dígitos, posteriormente expandida para 4.000 palavras. Limitações de memória como essa dominariam a programação por décadas depois. As instruções do programa foram obtidas do tambor giratório à medida que o código era executado. A execução eficiente usando memória de tambor foi fornecida por uma combinação de arquitetura de hardware: o formato de instrução incluía o endereço da próxima instrução e software: o Symbolic Optimal Assembly Program, SOAP, [117] atribuiu instruções aos endereços ideais (na medida do possível por análise estática do programa-fonte). Assim, muitas instruções eram, quando necessárias, localizadas na próxima linha do tambor a ser lida e não era necessário tempo de espera adicional para a rotação do tambor.

Edição de microprogramação

Em 1951, o cientista britânico Maurice Wilkes desenvolveu o conceito de microprogramação a partir da compreensão de que a unidade de processamento central de um computador poderia ser controlada por um programa de computador em miniatura altamente especializado em ROM de alta velocidade. A microprogramação permite que o conjunto de instruções básicas seja definido ou estendido por programas embutidos (agora chamados de firmware ou microcódigo). [118] Este conceito simplificou bastante o desenvolvimento da CPU. Ele descreveu isso pela primeira vez na Conferência Inaugural de Computadores da Universidade de Manchester em 1951, depois publicou de forma expandida em Espectro IEEE em 1955. [ citação necessária ]

Foi amplamente utilizado nas CPUs e unidades de ponto flutuante de mainframe e outros computadores, foi implementado pela primeira vez no EDSAC 2, [119] que também usou múltiplos "bits de bits" idênticos para simplificar o design. Conjuntos de tubos intercambiáveis ​​e substituíveis foram usados ​​para cada bit do processador. [j]

Memórias de tambor magnético foram desenvolvidas para a Marinha dos Estados Unidos durante a Segunda Guerra Mundial com o trabalho continuando na Engineering Research Associates (ERA) em 1946 e 1947. A ERA, então uma parte da Univac incluía uma memória de tambor em seu 1103, anunciada em fevereiro de 1953. A primeira O computador produzido em massa, o IBM 650, também anunciado em 1953, tinha cerca de 8,5 kilobytes de memória de tambor.

Memória de núcleo magnético patenteada em 1949 [121] com seu primeiro uso demonstrado para o computador Whirlwind em agosto de 1953. [122] A comercialização seguiu rapidamente. O núcleo magnético foi usado em periféricos do IBM 702 entregue em julho de 1955 e, posteriormente, no próprio 702. O IBM 704 (1955) e o Ferranti Mercury (1957) usavam memória de núcleo magnético. Ele passou a dominar o campo na década de 1970, quando foi substituído pela memória semicondutora. O núcleo magnético atingiu o pico de volume por volta de 1975 e diminuiu em uso e participação de mercado a partir de então. [123]

Ainda em 1980, as máquinas PDP-11/45 que usavam memória principal de núcleo magnético e tambores para troca ainda estavam em uso em muitos dos sites UNIX originais.

Características definidoras de alguns dos primeiros computadores digitais da década de 1940 (na história do hardware de computação)
Nome Primeiro operacional Sistema numeral Mecanismo de computação Programação Turing completo
Arthur H. Dickinson IBM (EUA) Janeiro de 1940 Decimal Eletrônico Não programável Não
Joseph Desch NCR (EUA) Março de 1940 Decimal Eletrônico Não programável Não
Zuse Z3 (Alemanha) Maio de 1941 Ponto flutuante binário Eletromecânica Controlado por programa por estoque de filme perfurado de 35 mm (mas sem ramificação condicional) Em teoria (1998)
Atanasoff – Berry Computer (EUA) 1942 Binário Eletrônico Não programável - propósito único Não
Colossus Mark 1 (Reino Unido) Fevereiro de 1944 Binário Eletrônico Controlado por programa por cabos patch e interruptores Não
Harvard Mark I - IBM ASCC (EUA) Maio de 1944 Decimal Eletromecânica Controlado por programa por fita de papel perfurado de 24 canais (mas sem ramificação condicional) Discutível
Colossus Mark 2 (Reino Unido) Junho de 1944 Binário Eletrônico Controlado por programa por cabos patch e interruptores Em teoria (2011) [124]
Zuse Z4 (Alemanha) Março de 1945 Ponto flutuante binário Eletromecânica Controlado por programa por estoque de filme perfurado de 35 mm sim
ENIAC (EUA) Fevereiro de 1946 Decimal Eletrônico Controlado por programa por cabos de patch e interruptores sim
ARC2 (SEC) (Reino Unido) Maio de 1948 Binário Eletrônico Programa armazenado na memória do tambor rotativo sim
Manchester Baby (Reino Unido) Junho de 1948 Binário Eletrônico Programa armazenado na memória do tubo de raios catódicos Williams sim
ENIAC modificado (EUA) Setembro de 1948 Decimal Eletrônico Mecanismo de programação armazenado somente leitura usando as tabelas de funções como ROM do programa sim
Manchester Mark 1 (Reino Unido) Abril de 1949 Binário Eletrônico Programa armazenado na memória de tubo de raios catódicos de Williams e memória de tambor magnético sim
EDSAC (Reino Unido) Maio de 1949 Binário Eletrônico Programa armazenado na memória da linha de atraso de mercúrio sim
CSIRAC (Austrália) Novembro de 1949 Binário Eletrônico Programa armazenado na memória da linha de atraso de mercúrio sim

O transistor bipolar foi inventado em 1947. De 1955 em diante, os transistores substituíram as válvulas de vácuo nos projetos dos computadores, [125] dando origem à "segunda geração" de computadores. Comparados aos tubos de vácuo, os transistores têm muitas vantagens: eles são menores e requerem menos energia do que os tubos de vácuo, portanto, emitem menos calor. Os transistores de junção de silício eram muito mais confiáveis ​​do que os tubos a vácuo e tinham uma vida útil mais longa. Os computadores transistorizados podem conter dezenas de milhares de circuitos lógicos binários em um espaço relativamente compacto. Os transistores reduziram muito o tamanho, o custo inicial e o custo operacional dos computadores. Normalmente, os computadores de segunda geração eram compostos de um grande número de placas de circuito impresso, como o IBM Standard Modular System, [126] cada uma carregando de uma a quatro portas lógicas ou flip-flops.

Na Universidade de Manchester, uma equipe sob a liderança de Tom Kilburn projetou e construiu uma máquina usando os transistores recém-desenvolvidos em vez de válvulas. Inicialmente, os únicos dispositivos disponíveis eram transistores de contato de germânio, menos confiáveis ​​do que as válvulas que eles substituíram, mas que consumiam muito menos energia. [127] Seu primeiro computador transistorizado, e o primeiro no mundo, estava operacional em 1953, [128] e uma segunda versão foi concluída lá em abril de 1955. [129] A versão de 1955 usava 200 transistores, 1.300 diodos de estado sólido, e teve um consumo de energia de 150 watts. No entanto, a máquina fez uso de válvulas para gerar suas formas de onda de relógio de 125 kHz e no circuito para ler e escrever em sua memória de tambor magnético, então não foi o primeiro computador completamente transistorizado.

Essa distinção vai para o Harwell CADET de 1955, [130] construído pela divisão de eletrônica do Atomic Energy Research Establishment at Harwell. O projeto apresentava um armazenamento de memória de tambor magnético de 64 kilobytes com várias cabeças móveis projetadas no National Physical Laboratory, no Reino Unido. Em 1953, essa equipe tinha circuitos de transistor operando para ler e escrever em um tambor magnético menor do Royal Radar Establishment. A máquina usava uma velocidade de clock baixa de apenas 58 kHz para evitar o uso de qualquer válvula para gerar as formas de onda do clock. [131] [130]

O CADET usou transistores de 324 pontos de contato fornecidos pela empresa britânica Standard Telephones and Cables. 76 transistores de junção foram usados ​​para os amplificadores de primeiro estágio para dados lidos do tambor, uma vez que os transistores de pontos de contato eram muito barulhentos. A partir de agosto de 1956, o CADET estava oferecendo um serviço de computação regular, durante o qual frequentemente executava execuções contínuas de computação de 80 horas ou mais. [132] [133] Problemas com a confiabilidade dos primeiros lotes de transistores de junção de ponto e liga significavam que o tempo médio da máquina entre as falhas era de cerca de 90 minutos, mas isso melhorou quando os transistores de junção bipolar mais confiáveis ​​tornaram-se disponíveis. [134]

O projeto do computador transistor da Universidade de Manchester foi adotado pela empresa de engenharia local Metropolitan-Vickers em seu Metrovick 950, o primeiro computador transistor comercial em qualquer lugar. [135] Seis Metrovick 950 foram construídos, o primeiro concluído em 1956. Eles foram implantados com sucesso em vários departamentos da empresa e estiveram em uso por cerca de cinco anos. [129] Um computador de segunda geração, o IBM 1401, capturou cerca de um terço do mercado mundial. A IBM instalou mais de dez mil 1401s entre 1960 e 1964.

Periféricos de transistor Editar

A eletrônica transistorizada melhorou não só a CPU (Unidade Central de Processamento), mas também os dispositivos periféricos. As unidades de armazenamento de dados em disco de segunda geração foram capazes de armazenar dezenas de milhões de letras e dígitos. Ao lado das unidades de armazenamento em disco fixo, conectadas à CPU por meio de transmissão de dados em alta velocidade, estavam as unidades de armazenamento de dados em disco removível. Um pacote de disco removível pode ser facilmente trocado por outro pacote em poucos segundos.Mesmo que a capacidade dos discos removíveis seja menor do que os discos fixos, sua intercambialidade garante uma quantidade quase ilimitada de dados disponíveis. A fita magnética forneceu capacidade de arquivamento para esses dados, a um custo menor do que o disco.

Muitas CPUs de segunda geração delegaram comunicações de dispositivos periféricos a um processador secundário. Por exemplo, enquanto o processador de comunicação controlava a leitura e a perfuração do cartão, a CPU principal executava cálculos e instruções de desvio binário. Um barramento de dados carregaria dados entre a CPU principal e a memória central na taxa de ciclo de busca e execução da CPU, e outros barramentos de dados normalmente serviriam aos dispositivos periféricos. No PDP-1, o tempo de ciclo da memória central era de 5 microssegundos, portanto, a maioria das instruções aritméticas levava 10 microssegundos (100.000 operações por segundo) porque a maioria das operações levava pelo menos dois ciclos de memória, um para a instrução e outro para a busca de dados do operando.

Durante a segunda geração, as unidades terminais remotas (frequentemente na forma de Teleimpressoras como uma Friden Flexowriter) tiveram um uso muito maior. [k] As conexões telefônicas forneciam velocidade suficiente para os primeiros terminais remotos e permitiam centenas de quilômetros de separação entre os terminais remotos e o centro de computação. Eventualmente, essas redes de computadores autônomas seriam generalizadas em uma rede interconectada rede de redes-a Internet. [eu]

Supercomputadores transistorizados Editar

O início dos anos 1960 viu o advento da supercomputação. O Atlas foi um desenvolvimento conjunto entre a Universidade de Manchester, Ferranti e Plessey, e foi instalado pela primeira vez na Universidade de Manchester e oficialmente comissionado em 1962 como um dos primeiros supercomputadores do mundo - considerado o computador mais poderoso do mundo naquela época . [138] Foi dito que sempre que Atlas ficava offline, metade da capacidade do computador do Reino Unido era perdida. [139] Era uma máquina de segunda geração, usando transistores de germânio discretos. Atlas também foi o pioneiro do Atlas Supervisor, "considerado por muitos como o primeiro sistema operacional moderno reconhecível". [140]

Nos Estados Unidos, uma série de computadores da Control Data Corporation (CDC) foi projetada por Seymour Cray para usar designs inovadores e paralelismo para atingir desempenho de pico computacional superior. [141] O CDC 6600, lançado em 1964, é geralmente considerado o primeiro supercomputador. [142] [143] O CDC 6600 superou seu predecessor, o IBM 7030 Stretch, por um fator de 3. Com desempenho de cerca de 1 megaFLOPS, o CDC 6600 foi o computador mais rápido do mundo de 1964 a 1969, quando abandonou esse status ao seu sucessor, o CDC 7600.

A "terceira geração" de computadores eletrônicos digitais usava chips de circuito integrado (IC) como base de sua lógica.

A ideia de um circuito integrado foi concebida por um cientista de radar que trabalhava para o Estabelecimento de Radar Real do Ministério da Defesa, Geoffrey W.A. Dummer.

Os primeiros circuitos integrados funcionais foram inventados por Jack Kilby da Texas Instruments e Robert Noyce da Fairchild Semiconductor. [144] Kilby registrou suas idéias iniciais sobre o circuito integrado em julho de 1958, demonstrando com sucesso o primeiro exemplo integrado funcional em 12 de setembro de 1958. [145] A invenção de Kilby foi um circuito integrado híbrido (IC híbrido). [146] Ele tinha conexões de fios externos, o que dificultava a produção em massa. [147]

Noyce teve sua própria ideia de um circuito integrado meio ano depois de Kilby. [148] A invenção de Noyce foi um chip de circuito integrado monolítico (IC). [149] [147] Seu chip resolveu muitos problemas práticos que o de Kilby não tinha. Produzido na Fairchild Semiconductor, era feito de silício, enquanto o chip de Kilby era feito de germânio. A base para o IC monolítico de Noyce era o processo planar de Fairchild, que permitia que os circuitos integrados fossem dispostos usando os mesmos princípios dos circuitos impressos. O processo planar foi desenvolvido pelo colega de Noyce, Jean Hoerni, no início de 1959, com base no trabalho de Mohamed M. Atalla sobre passivação de superfície de semicondutor por dióxido de silício no Bell Labs no final dos anos 1950. [150] [151] [152]

Os computadores de terceira geração (circuito integrado) apareceram pela primeira vez no início da década de 1960 em computadores desenvolvidos para fins governamentais e, em seguida, em computadores comerciais a partir de meados da década de 1960. O primeiro computador de CI de silício foi o Apollo Guidance Computer ou AGC. [153] Embora não seja o computador mais poderoso de seu tempo, as restrições extremas de tamanho, massa e potência da espaçonave Apollo exigiam que o AGC fosse muito menor e mais denso do que qualquer computador anterior, pesando apenas 70 libras (32 kg ) Cada missão de pouso lunar carregava dois CAGs, cada um nos módulos de comando e ascensão lunar.

O MOSFET (transistor de efeito de campo semicondutor de óxido metálico ou transistor MOS) foi inventado por Mohamed M. Atalla e Dawon Kahng no Bell Labs em 1959. [154] Além do processamento de dados, o MOSFET possibilitou o uso prático do MOS transistores como elementos de armazenamento de células de memória, uma função anteriormente desempenhada por núcleos magnéticos. A memória semicondutora, também conhecida como memória MOS, era mais barata e consumia menos energia do que a memória de núcleo magnético. [155] A memória de acesso aleatório MOS (RAM), na forma de RAM estática (SRAM), foi desenvolvida por John Schmidt na Fairchild Semiconductor em 1964. [155] [156] Em 1966, Robert Dennard no IBM Thomas J. O Watson Research Center desenvolveu a RAM dinâmica MOS (DRAM). [157] Em 1967, Dawon Kahng e Simon Sze da Bell Labs desenvolveram o MOSFET de porta flutuante, a base para a memória não volátil MOS, como EPROM, EEPROM e memória flash. [158] [159]

A "quarta geração" de computadores eletrônicos digitais usava microprocessadores como base de sua lógica. O microprocessador tem origem no chip do circuito integrado MOS (MOS IC). [160] Devido ao rápido escalonamento do MOSFET, os chips MOS IC aumentaram rapidamente em complexidade a uma taxa prevista pela lei de Moore, levando à integração em grande escala (LSI) com centenas de transistores em um único chip MOS no final dos anos 1960. A aplicação de chips MOS LSI à computação foi a base para os primeiros microprocessadores, à medida que os engenheiros começaram a reconhecer que um processador de computador completo poderia estar contido em um único chip MOS LSI. [160]

O assunto de exatamente qual dispositivo foi o primeiro microprocessador é controverso, em parte devido à falta de acordo sobre a definição exata do termo "microprocessador". Os primeiros microprocessadores com vários chips foram o Four-Phase Systems AL-1 em 1969 e Garrett AiResearch MP944 em 1970, desenvolvido com vários chips MOS LSI. [160] O primeiro microprocessador de chip único foi o Intel 4004, [161] desenvolvido em um único chip PMOS LSI. [160] Ele foi projetado e realizado por Ted Hoff, Federico Faggin, Masatoshi Shima e Stanley Mazor na Intel e lançado em 1971. [m] Tadashi Sasaki e Masatoshi Shima na Busicom, um fabricante de calculadoras, teve a percepção inicial de que a CPU poderia ser um único chip MOS LSI, fornecido pela Intel. [163] [161]

Embora os primeiros CIs de microprocessador contivessem literalmente apenas o processador, ou seja, a unidade de processamento central de um computador, seu desenvolvimento progressivo levou naturalmente a chips contendo a maioria ou todas as partes eletrônicas internas de um computador. O circuito integrado na imagem à direita, por exemplo, um Intel 8742, é um microcontrolador de 8 bits que inclui uma CPU rodando a 12 MHz, 128 bytes de RAM, 2048 bytes de EPROM e E / S no mesmo chip .

Durante a década de 1960, houve uma sobreposição considerável entre as tecnologias de segunda e terceira geração. [n] A IBM implementou seus módulos IBM Solid Logic Technology em circuitos híbridos para o IBM System / 360 em 1964. Em 1975, Sperry Univac continuou a fabricação de máquinas de segunda geração, como o UNIVAC 494. Os grandes sistemas Burroughs, como os B5000 eram stack machines, o que permitia uma programação mais simples. Esses autômatos pushdown também foram implementados em minicomputadores e microprocessadores posteriormente, o que influenciou o design da linguagem de programação. Os minicomputadores serviram como centros de computação de baixo custo para a indústria, negócios e universidades. [164] Tornou-se possível simular circuitos analógicos com o programa de simulação com ênfase em circuito integrado, ou SPICE (1971) em minicomputadores, um dos programas para automação de projeto eletrônico (EDA). O microprocessador levou ao desenvolvimento de microcomputadores, computadores pequenos e de baixo custo que poderiam ser propriedade de pessoas físicas e pequenas empresas. Os microcomputadores, o primeiro dos quais apareceu na década de 1970, tornaram-se onipresentes na década de 1980 e além.

Embora qual sistema específico seja considerado o primeiro microcomputador é uma questão de debate, já que havia vários sistemas exclusivos para amadores desenvolvidos com base no Intel 4004 e seu sucessor, o Intel 8008, o primeiro kit de microcomputador disponível comercialmente foi o Altair 8800 baseado em Intel 8080 , que foi anunciado no artigo de capa de janeiro de 1975 da Eletrônicos populares. No entanto, este era um sistema extremamente limitado em seus estágios iniciais, tendo apenas 256 bytes de DRAM em seu pacote inicial e nenhuma entrada-saída, exceto suas chaves de alternância e display de registro de LED. Apesar disso, foi inicialmente surpreendentemente popular, com várias centenas de vendas no primeiro ano, e a demanda rapidamente superou a oferta. Vários fornecedores de terceiros, como Cromemco e Tecnologia de Processador, logo começaram a fornecer hardware de barramento S-100 adicional para o Altair 8800.

Em abril de 1975, na Feira de Hannover, a Olivetti apresentou o P6060, o primeiro sistema de computador pessoal completo e pré-montado do mundo. A unidade de processamento central consistia em dois cartões, codificados PUCE1 e PUCE2 e, ao contrário da maioria dos outros computadores pessoais, era construída com componentes TTL em vez de um microprocessador. Ele tinha uma ou duas unidades de disquete de 8 ", uma tela de plasma de 32 caracteres, impressora térmica gráfica de 80 colunas, 48 ​​Kbytes de RAM e linguagem BASIC. Pesava 40 kg (88 lb). Como um sistema completo, este era um passo significativo do Altair, embora nunca tenha alcançado o mesmo sucesso.Ele competia com um produto semelhante da IBM que tinha uma unidade de disquete externa.

De 1975 a 1977, a maioria dos microcomputadores, como o MOS Technology KIM-1, o Altair 8800 e algumas versões do Apple I, foram vendidos como kits para faça-você-mesmo. Os sistemas pré-montados não ganharam muito terreno até 1977, com a introdução do Apple II, do Tandy TRS-80, dos primeiros computadores SWTPC e do Commodore PET. A computação evoluiu com arquiteturas de microcomputador, com recursos adicionados de seus irmãos maiores, agora dominantes na maioria dos segmentos de mercado.

Um computador NeXT e suas ferramentas e bibliotecas de desenvolvimento orientadas a objetos foram usados ​​por Tim Berners-Lee e Robert Cailliau no CERN para desenvolver o primeiro software de servidor da web do mundo, CERN httpd, e também para escrever o primeiro navegador da web, WorldWideWeb.

Sistemas tão complicados quanto computadores exigem confiabilidade muito alta. O ENIAC permaneceu ligado, em operação contínua de 1947 a 1955, por oito anos antes de ser encerrado. Embora um tubo de vácuo possa falhar, ele seria substituído sem interromper o sistema. Pela simples estratégia de nunca desligar o ENIAC, as falhas foram drasticamente reduzidas. Os computadores de defesa aérea SAGE de tubo a vácuo tornaram-se extremamente confiáveis ​​- instalados em pares, um off-line, os tubos com probabilidade de falhar, o faziam quando o computador funcionava intencionalmente com potência reduzida para localizá-los. Os discos rígidos hot-plug, como os tubos de vácuo hot-plug do passado, continuam a tradição de reparo durante a operação contínua. As memórias semicondutoras rotineiramente não apresentam erros quando operam, embora sistemas operacionais como o Unix tenham empregado testes de memória na inicialização para detectar falhas de hardware. Hoje, o requisito de desempenho confiável se torna ainda mais rigoroso quando os farms de servidores são a plataforma de entrega. [165] O Google conseguiu isso usando um software tolerante a falhas para se recuperar de falhas de hardware e está até trabalhando no conceito de substituir farms de servidores inteiros em tempo real, durante um evento de serviço. [166] [167]

No século 21, CPUs multi-core tornaram-se disponíveis comercialmente. [168] A memória endereçável por conteúdo (CAM) [169] tornou-se barata o suficiente para ser usada em rede e é freqüentemente usada para memória cache on-chip em microprocessadores modernos, embora nenhum sistema de computador ainda tenha implementado CAMs de hardware para uso em programação línguas. Atualmente, os CAMs (ou matrizes associativas) no software são específicos da linguagem de programação. Matrizes de células de memória semicondutoras são estruturas muito regulares, e os fabricantes provam seus processos nelas, isso permite reduções de preço em produtos de memória. Durante a década de 1980, as portas lógicas CMOS se desenvolveram em dispositivos que poderiam ser fabricados tão rapidamente quanto outros tipos de circuito, o consumo de energia do computador pode, portanto, ser reduzido drasticamente. Ao contrário do consumo de corrente contínua de uma porta com base em outros tipos lógicos, uma porta CMOS só consome corrente significativa durante a 'transição' entre os estados lógicos, exceto para vazamento.

Os circuitos CMOS permitiram que a computação se tornasse uma mercadoria que agora é onipresente, incorporada em muitas formas, de cartões de felicitações e telefones a satélites. A potência do projeto térmico que é dissipada durante a operação tornou-se tão essencial quanto a velocidade de computação da operação. Em 2006, os servidores consumiam 1,5% do orçamento total de energia dos Estados Unidos [170]. O consumo de energia dos data centers de computador deveria dobrar para 3% do consumo mundial em 2011. O SoC (sistema em um chip) comprimiu ainda mais o circuito integrado em um único chip Os SoCs estão permitindo que telefones e PCs convergam em dispositivos móveis sem fio portáteis individuais. [171]

A computação quântica é uma tecnologia emergente no campo da computação. A MIT Technology Review relatou em 10 de novembro de 2017 que a IBM criou um computador de 50 qubit, atualmente seu estado quântico dura 50 microssegundos. [172] A Physical Review X relatou uma técnica para 'detecção de porta única como um método de leitura viável para qubits de spin' (um estado de spin singleto-tripleto em silício) em 26 de novembro de 2018. [173] Uma equipe do Google conseguiu operar seus Chip modulador de pulso de RF em 3 Kelvin, simplificando a criogenia de seu computador de 72 qubit, que está configurado para operar a 0,3 Kelvin, mas o circuito de leitura e outro driver ainda precisam ser trazidos para a criogenia. [174] Veja: Supremacia quântica [175] [176] Os sistemas de qubit de silício demonstraram emaranhamento em distâncias não locais. [177]

Hardware de computação e seu software se tornaram até mesmo uma metáfora para o funcionamento do universo. [178]

Uma indicação da rapidez do desenvolvimento desse campo pode ser inferida da história do artigo seminal de 1947 de Burks, Goldstine e von Neumann. [179] Quando alguém teve tempo de escrever qualquer coisa, já estava obsoleto. Depois de 1945, outros leram a obra de John von Neumann Primeiro esboço de um relatório sobre o EDVAC, e imediatamente começaram a implementar seus próprios sistemas. Até hoje, o ritmo acelerado de desenvolvimento continua em todo o mundo. [180] [o]


Assista o vídeo: Jak walczyć z obostrzeniami maseczkami i przymusem szczypawkowym - Rozmowa z prawnikiem