Computador digital

Computador digital , qualquer dispositivo de uma classe capaz de resolver problemas por meio do processamento de informações de forma discreta. Ele opera em dados, incluindo magnitudes, letras e símbolos, que são expressos em Código binário - ou seja, usando apenas os dois dígitos 0 e 1. Contando, comparando e manipulando esses dígitos ou suas combinações de acordo com um conjunto de instruções mantidas em seu memória , um computador digital pode realizar tarefas como controlar processos industriais e regular o funcionamento de máquinas; analisar e organizar grandes quantidades de dados de negócios; e simular o comportamento de dinâmico sistemas (por exemplo, padrões climáticos globais e reações químicas ) em pesquisas científicas.

Segue um breve tratamento dos computadores digitais. Para tratamento completo, Vejo ciência da computação: componentes básicos do computador.



Elementos funcionais

Um típico digital sistema de computador tem quatro elementos funcionais básicos: (1) equipamento de entrada-saída , (dois) memória principal , (3) unidade de controle e (4) unidade aritmético-lógica. Qualquer um de vários dispositivos é usado para inserir dados e instruções de programa em um computador e para obter acesso aos resultados da operação de processamento. Dispositivos de entrada comuns incluem teclados e scanners ópticos; os dispositivos de saída incluem impressoras e monitores. As informações recebidas por um computador de sua unidade de entrada são armazenadas na memória principal ou, se não para uso imediato, em um dispositivo de armazenamento auxiliar . A unidade de controle seleciona e chama instruções da memória na sequência apropriada e retransmite os comandos apropriados para a unidade apropriada. Ele também sincroniza as velocidades de operação variadas dos dispositivos de entrada e saída com a da unidade aritmética-lógica (ALU), de modo a garantir a movimentação adequada dos dados por todo o sistema do computador. A ALU realiza a aritmética e a lógica algoritmos selecionado para processar os dados de entrada em velocidades extremamente altas - em muitos casos em nanossegundos (bilionésimos de segundo). A memória principal, unidade de controle e ALU juntas constituem a unidade de processamento central (CPU) da maioria dos sistemas de computador digital, enquanto os dispositivos de entrada-saída e auxiliar unidades de armazenamento constituir periférico equipamento.





Desenvolvimento do computador digital

Blaise Pascal da França e Gottfried Wilhelm Leibniz da Alemanha inventou máquinas de calcular digitais mecânicas durante o século 17. O inventor inglês Charles Babbage, entretanto, é geralmente creditado por ter concebido o primeiro computador digital automático. Durante a década de 1830, Babbage desenvolveu sua chamada Máquina Analítica, um dispositivo mecânico projetado para combinar operações aritméticas básicas com decisões baseadas em seus próprios cálculos. Os planos de Babbage incorporam a maioria dos elementos fundamentais do computador digital moderno. Por exemplo, eles pediam controle sequencial - ou seja, controle de programa que incluía ramificação, looping e unidades aritméticas e de armazenamento com impressão automática. O dispositivo de Babbage, no entanto, nunca foi concluído e foi esquecido até que seus escritos foram redescobertos mais de um século depois.

Motor Diferença

Mecanismo de diferença A parte completa do mecanismo de diferença de Charles Babbage, 1832. Esta calculadora avançada foi projetada para produzir tabelas de logaritmo usadas na navegação. O valor dos números foi representado pelas posições das rodas dentadas marcadas com números decimais. Museu da Ciência de Londres



De grande importância na evolução do computador digital foi o trabalho do matemático e lógico inglês. George Boole . Em vários ensaios escritos em meados de 1800, Boole discutiu o analogia entre os símbolos da álgebra e os da lógica usados ​​para representar formas lógicas e silogismos. Seu formalismo, operando em apenas 0 e 1, tornou-se a base do que agora é chamado álgebra booleana , em que a teoria e os procedimentos de comutação de computadores estão fundamentados.



John V. Atanasoff, um matemático e físico americano, é responsável pela construção o primeiro computador digital eletrônico , que ele construiu de 1939 a 1942 com a ajuda de seu aluno de graduação Clifford E. Berry. Konrad Zuse, um engenheiro alemão atuando em isolamento virtual de empreendimentos em outros lugares, concluiu a construção em 1941 do primeiro cálculo controlado por programa operacional máquina (Z3). Em 1944, Howard Aiken e um grupo de engenheiros da International Business Machines (IBM) Corporation concluíram o trabalho no Harvard Mark I , uma máquina cujas operações de processamento de dados eram controladas principalmente por relés elétricos (dispositivos de comutação).

Clifford E. Berry e o computador Atanasoff-Berry

Clifford E. Berry e o computador Atanasoff-Berry Clifford E. Berry e o computador Atanasoff-Berry, ou ABC, c. 1942. O ABC foi possivelmente o primeiro computador digital eletrônico. Serviço de fotos da Iowa State University



Desde o desenvolvimento do Harvard Mark I, o computador digital evoluiu rapidamente. A sucessão de avanços em equipamentos de informática, principalmente em circuitos lógicos, é muitas vezes dividida em gerações, a cada geração composta um grupo de máquinas que compartilham um mesmo tecnologia .

Em 1946 J. Presper Eckert e John W. Mauchly, ambos da Universidade da Pensilvânia, construíram o ENIAC (um acrônimo para é letrônico n umérico eu integrador para WL c computador), uma máquina digital e o primeiro computador eletrônico de uso geral. Seus recursos de computação foram derivados da máquina de Atanasoff; ambos os computadores incluíam tubos de vácuo em vez de relés como seus elementos lógicos ativos, um recurso que resultou em um aumento significativo na velocidade operacional. O conceito de um computador com programa armazenado foi introduzido em meados da década de 1940, e a ideia de armazenar códigos de instrução, bem como dados em uma memória eletricamente alterável foi implementado em EDVAC ( é letrônico d iscreto v arável para utomático c computador).



Manchester Mark I

Manchester Mark I O Manchester Mark I, o primeiro computador digital com programa armazenado, c. 1949. Reimpresso com permissão do Departamento de Ciência da Computação da Universidade de Manchester, Eng.



A segunda geração de computadores começou no final dos anos 1950, quando máquinas digitais usando transistores tornaram-se disponíveis comercialmente. Embora este tipo de dispositivo semicondutor tenha sido inventado em 1948, mais de 10 anos de trabalho de desenvolvimento foram necessários para torná-lo viável alternativo para o tubo de vácuo. O pequeno tamanho do transistor, sua maior confiabilidade e sua potência relativamente baixa consumo tornou-o muito superior ao tubo. Seu uso em circuito de computador permitiu a fabricação de sistemas digitais que eram consideravelmente mais eficientes, menores e mais rápidos do que seus ancestrais da primeira geração.

primeiro transistor

primeiro transistor O transistor foi inventado em 1947 nos Laboratórios Bell por John Bardeen, Walter H. Brattain e William B. Shockley. Lucent Technologies Inc./ Bell Labs



O final dos anos 1960 e 1970 testemunharam mais avanços dramáticos no computador hardware . O primeiro foi a fabricação do circuito integrado, um dispositivo de estado sólido contendo centenas de transistores, diodos , e resistores em um minúsculo silício lasca . Esse microcircuito possibilitou a produção de computadores mainframe (em grande escala) com velocidades de operação, capacidade e confiabilidade mais altas a um custo significativamente menor. Outro tipo de computador de terceira geração desenvolvido como resultado da microeletrônica foi o minicomputador, uma máquina consideravelmente menor que o mainframe padrão, mas poderosa o suficiente para controlar os instrumentos de um laboratório científico inteiro.

circuito integrado

circuito integrado Um circuito integrado típico, mostrado em uma unha. Charles Falco / Pesquisadores de fotos



O desenvolvimento da integração em grande escala (LSI) permitiu que os fabricantes de hardware empacotassem milhares de transistores e outros componentes relacionados em um único chip de silício do tamanho da unha de um bebê. Esse microcircuito gerou dois dispositivos que revolucionaram a tecnologia da computação. O primeiro deles foi o microprocessador, que é um integrado circuito que contém todos os circuitos aritméticos, lógicos e de controle de uma unidade de processamento central. Sua produção resultou no desenvolvimento de microcomputadores, sistemas não maiores do que aparelhos de televisão portáteis, mas com substancial poder de computação. O outro dispositivo importante que surgiu do circuito LSI foi a memória semicondutora. Composto por apenas alguns chips, este dispositivo de armazenamento compacto é adequado para uso em minicomputadores e microcomputadores. Além disso, tem encontrado uso em um número crescente de mainframes, particularmente aqueles projetados para aplicações de alta velocidade, devido à sua velocidade de acesso rápido e grande capacidade de armazenamento. Essa eletrônica compacta levou, no final da década de 1970, ao desenvolvimento do computador pessoal, um computador digital pequeno e barato o suficiente para ser usado por consumidores comuns.

microprocessador

microprocessador Núcleo de um microprocessador Intel 80486DX2 mostrando a matriz. Matt Britt

No início da década de 1980, os circuitos integrados avançaram para a integração de muito grande escala (VLSI). Este projeto e tecnologia de fabricação aumentaram muito a densidade do circuito do microprocessador, memória e chips de suporte - ou seja, aqueles que servem para fazer a interface de microprocessadores com dispositivos de entrada-saída. Na década de 1990, alguns circuitos VLSI continham mais de 3 milhões de transistores em um chip de silício com menos de 0,3 polegada quadrada (2 cm quadrados) de área.

Os computadores digitais das décadas de 1980 e 1990 que empregam tecnologias LSI e VLSI são frequentemente chamados de sistemas de quarta geração. Muitos dos microcomputadores produzidos durante a década de 1980 eram equipados com um único chip no qual os circuitos para processador, memória e funções de interface eram integrados. ( Veja também supercomputador.)

O uso de computadores pessoais cresceu nas décadas de 1980 e 1990. A disseminação da World Wide Web na década de 1990 trouxe milhões de usuários para o Internet , o mundo rede de computadores e, em 2019, cerca de 4,5 bilhões de pessoas, mais da metade da população mundial, tinham acesso à Internet. Os computadores tornaram-se menores e mais rápidos e foram onipresente no início do século 21 em smartphones e, posteriormente, em tablets.

Iphone 4

iPhone 4 O iPhone 4, lançado em 2010. Cortesia da Apple

Compartilhar:

Idéias Frescas

Categoria

Outro

13-8

Cultura E Religião

Alquimista Cidade

Livros Gov-Civ-Guarda.pt

Gov-Civ-Guarda.pt Ao Vivo

Patrocinado Pela Fundação Charles Koch

Coronavírus

Ciência Surpreendente

Futuro Da Aprendizagem

Engrenagem

Mapas Estranhos

Patrocinadas

Patrocinado Pelo Institute For Humane Studies

Patrocinado Pela Intel The Nantucket Project

Patrocinado Pela Fundação John Templeton

Patrocinado Pela Kenzie Academy

Tecnologia E Inovação

Política E Atualidades

Mente E Cérebro

Notícias / Social

Patrocinado Pela Northwell Health

Parcerias

Sexo E Relacionamentos

Crescimento Pessoal

Podcasts Do Think Again

Patrocinado Por Sofia Gray

Vídeos

Patrocinado Por Sim. Cada Criança.

Geografia E Viagens

Filosofia E Religião

Entretenimento E Cultura Pop

Política, Lei E Governo

Ciência

Estilos De Vida E Questões Sociais

Tecnologia

Saúde E Medicina

Literatura

Artes Visuais

Lista

Desmistificado

História Do Mundo

Esportes E Recreação

Holofote

Companheiro

#wtfact

Pensadores Convidados

Saúde

O Presente

O Passado

Ciência Dura

O Futuro

Começa Com Um Estrondo

Alta Cultura

Neuropsicologia

Grande Pensamento+

Vida

Pensamento

Liderança

Habilidades Inteligentes

Arquivo Pessimistas

Começa com um estrondo

Grande Pensamento+

Neuropsicologia

Ciência dura

O futuro

Mapas estranhos

Habilidades Inteligentes

O passado

Pensamento

O poço

Saúde

Vida

Outro

Alta cultura

A Curva de Aprendizagem

Arquivo Pessimistas

O presente

Patrocinadas

A curva de aprendizado

Liderança

ciência difícil

De outros

Pensando

Recomendado