Computador digital
Computador digital , qualquer dispositivo de uma classe capaz de resolver problemas por meio do processamento de informações de forma discreta. Ele opera em dados, incluindo magnitudes, letras e símbolos, que são expressos em Código binário - ou seja, usando apenas os dois dígitos 0 e 1. Contando, comparando e manipulando esses dígitos ou suas combinações de acordo com um conjunto de instruções mantidas em seu memória , um computador digital pode realizar tarefas como controlar processos industriais e regular o funcionamento de máquinas; analisar e organizar grandes quantidades de dados de negócios; e simular o comportamento de dinâmico sistemas (por exemplo, padrões climáticos globais e reações químicas ) em pesquisas científicas.
Segue um breve tratamento dos computadores digitais. Para tratamento completo, Vejo ciência da computação: componentes básicos do computador.
Elementos funcionais
Um típico digital sistema de computador tem quatro elementos funcionais básicos: (1) equipamento de entrada-saída , (dois) memória principal , (3) unidade de controle e (4) unidade aritmético-lógica. Qualquer um de vários dispositivos é usado para inserir dados e instruções de programa em um computador e para obter acesso aos resultados da operação de processamento. Dispositivos de entrada comuns incluem teclados e scanners ópticos; os dispositivos de saída incluem impressoras e monitores. As informações recebidas por um computador de sua unidade de entrada são armazenadas na memória principal ou, se não para uso imediato, em um dispositivo de armazenamento auxiliar . A unidade de controle seleciona e chama instruções da memória na sequência apropriada e retransmite os comandos apropriados para a unidade apropriada. Ele também sincroniza as velocidades de operação variadas dos dispositivos de entrada e saída com a da unidade aritmética-lógica (ALU), de modo a garantir a movimentação adequada dos dados por todo o sistema do computador. A ALU realiza a aritmética e a lógica algoritmos selecionado para processar os dados de entrada em velocidades extremamente altas - em muitos casos em nanossegundos (bilionésimos de segundo). A memória principal, unidade de controle e ALU juntas constituem a unidade de processamento central (CPU) da maioria dos sistemas de computador digital, enquanto os dispositivos de entrada-saída e auxiliar unidades de armazenamento constituir periférico equipamento.
Desenvolvimento do computador digital
Blaise Pascal da França e Gottfried Wilhelm Leibniz da Alemanha inventou máquinas de calcular digitais mecânicas durante o século 17. O inventor inglês Charles Babbage, entretanto, é geralmente creditado por ter concebido o primeiro computador digital automático. Durante a década de 1830, Babbage desenvolveu sua chamada Máquina Analítica, um dispositivo mecânico projetado para combinar operações aritméticas básicas com decisões baseadas em seus próprios cálculos. Os planos de Babbage incorporam a maioria dos elementos fundamentais do computador digital moderno. Por exemplo, eles pediam controle sequencial - ou seja, controle de programa que incluía ramificação, looping e unidades aritméticas e de armazenamento com impressão automática. O dispositivo de Babbage, no entanto, nunca foi concluído e foi esquecido até que seus escritos foram redescobertos mais de um século depois.

Mecanismo de diferença A parte completa do mecanismo de diferença de Charles Babbage, 1832. Esta calculadora avançada foi projetada para produzir tabelas de logaritmo usadas na navegação. O valor dos números foi representado pelas posições das rodas dentadas marcadas com números decimais. Museu da Ciência de Londres
De grande importância na evolução do computador digital foi o trabalho do matemático e lógico inglês. George Boole . Em vários ensaios escritos em meados de 1800, Boole discutiu o analogia entre os símbolos da álgebra e os da lógica usados para representar formas lógicas e silogismos. Seu formalismo, operando em apenas 0 e 1, tornou-se a base do que agora é chamado álgebra booleana , em que a teoria e os procedimentos de comutação de computadores estão fundamentados.
John V. Atanasoff, um matemático e físico americano, é responsável pela construção o primeiro computador digital eletrônico , que ele construiu de 1939 a 1942 com a ajuda de seu aluno de graduação Clifford E. Berry. Konrad Zuse, um engenheiro alemão atuando em isolamento virtual de empreendimentos em outros lugares, concluiu a construção em 1941 do primeiro cálculo controlado por programa operacional máquina (Z3). Em 1944, Howard Aiken e um grupo de engenheiros da International Business Machines (IBM) Corporation concluíram o trabalho no Harvard Mark I , uma máquina cujas operações de processamento de dados eram controladas principalmente por relés elétricos (dispositivos de comutação).

Clifford E. Berry e o computador Atanasoff-Berry Clifford E. Berry e o computador Atanasoff-Berry, ou ABC, c. 1942. O ABC foi possivelmente o primeiro computador digital eletrônico. Serviço de fotos da Iowa State University
Desde o desenvolvimento do Harvard Mark I, o computador digital evoluiu rapidamente. A sucessão de avanços em equipamentos de informática, principalmente em circuitos lógicos, é muitas vezes dividida em gerações, a cada geração composta um grupo de máquinas que compartilham um mesmo tecnologia .
Em 1946 J. Presper Eckert e John W. Mauchly, ambos da Universidade da Pensilvânia, construíram o ENIAC (um acrônimo para é letrônico n umérico eu integrador para WL c computador), uma máquina digital e o primeiro computador eletrônico de uso geral. Seus recursos de computação foram derivados da máquina de Atanasoff; ambos os computadores incluíam tubos de vácuo em vez de relés como seus elementos lógicos ativos, um recurso que resultou em um aumento significativo na velocidade operacional. O conceito de um computador com programa armazenado foi introduzido em meados da década de 1940, e a ideia de armazenar códigos de instrução, bem como dados em uma memória eletricamente alterável foi implementado em EDVAC ( é letrônico d iscreto v arável para utomático c computador).

Manchester Mark I O Manchester Mark I, o primeiro computador digital com programa armazenado, c. 1949. Reimpresso com permissão do Departamento de Ciência da Computação da Universidade de Manchester, Eng.
A segunda geração de computadores começou no final dos anos 1950, quando máquinas digitais usando transistores tornaram-se disponíveis comercialmente. Embora este tipo de dispositivo semicondutor tenha sido inventado em 1948, mais de 10 anos de trabalho de desenvolvimento foram necessários para torná-lo viável alternativo para o tubo de vácuo. O pequeno tamanho do transistor, sua maior confiabilidade e sua potência relativamente baixa consumo tornou-o muito superior ao tubo. Seu uso emcircuito de computadorpermitiu a fabricação de sistemas digitais que eram consideravelmente mais eficientes, menores e mais rápidos do que seus ancestrais da primeira geração.

primeiro transistor O transistor foi inventado em 1947 nos Laboratórios Bell por John Bardeen, Walter H. Brattain e William B. Shockley. Lucent Technologies Inc./ Bell Labs
O final dos anos 1960 e 1970 testemunharam mais avanços dramáticos no computador hardware . O primeiro foi a fabricação do circuito integrado, um dispositivo de estado sólido contendo centenas de transistores, diodos , e resistores em um minúsculo silíciolasca. Esse microcircuito possibilitou a produção de computadores mainframe (em grande escala) com velocidades de operação, capacidade e confiabilidade mais altas a um custo significativamente menor. Outro tipo de computador de terceira geração desenvolvido como resultado da microeletrônica foi o minicomputador, uma máquina consideravelmente menor que o mainframe padrão, mas poderosa o suficiente para controlar os instrumentos de um laboratório científico inteiro.

circuito integrado Um circuito integrado típico, mostrado em uma unha. Charles Falco / Pesquisadores de fotos
O desenvolvimento da integração em grande escala (LSI) permitiu que os fabricantes de hardware empacotassem milhares de transistores e outros componentes relacionados em um único chip de silício do tamanho da unha de um bebê. Esse microcircuito gerou dois dispositivos que revolucionaram a tecnologia da computação. O primeiro deles foi o microprocessador, que é um integrado circuito que contém todos os circuitos aritméticos, lógicos e de controle de uma unidade de processamento central. Sua produção resultou no desenvolvimento de microcomputadores, sistemas não maiores do que aparelhos de televisão portáteis, mas com substancial poder de computação. O outro dispositivo importante que surgiu do circuito LSI foi a memória semicondutora. Composto por apenas alguns chips, este dispositivo de armazenamento compacto é adequado para uso em minicomputadores e microcomputadores. Além disso, tem encontrado uso em um número crescente de mainframes, particularmente aqueles projetados para aplicações de alta velocidade, devido à sua velocidade de acesso rápido e grande capacidade de armazenamento. Essa eletrônica compacta levou, no final da década de 1970, ao desenvolvimento do computador pessoal, um computador digital pequeno e barato o suficiente para ser usado por consumidores comuns.

microprocessador Núcleo de um microprocessador Intel 80486DX2 mostrando a matriz. Matt Britt
No início da década de 1980, os circuitos integrados avançaram para a integração de muito grande escala (VLSI). Este projeto e tecnologia de fabricação aumentaram muito a densidade do circuito do microprocessador, memória e chips de suporte - ou seja, aqueles que servem para fazer a interface de microprocessadores com dispositivos de entrada-saída. Na década de 1990, alguns circuitos VLSI continham mais de 3 milhões de transistores em um chip de silício com menos de 0,3 polegada quadrada (2 cm quadrados) de área.
Os computadores digitais das décadas de 1980 e 1990 que empregam tecnologias LSI e VLSI são frequentemente chamados de sistemas de quarta geração. Muitos dos microcomputadores produzidos durante a década de 1980 eram equipados com um único chip no qual os circuitos para processador, memória e funções de interface eram integrados. ( Veja também supercomputador.)
O uso de computadores pessoais cresceu nas décadas de 1980 e 1990. A disseminação da World Wide Web na década de 1990 trouxe milhões de usuários para o Internet , o mundorede de computadorese, em 2019, cerca de 4,5 bilhões de pessoas, mais da metade da população mundial, tinham acesso à Internet. Os computadores tornaram-se menores e mais rápidos e foram onipresente no início do século 21 em smartphones e, posteriormente, em tablets.

iPhone 4 O iPhone 4, lançado em 2010. Cortesia da Apple
Compartilhar: