Buscar

Resumo Arquitetura de computadores

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes
Você viu 3, do total de 5 páginas

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Faça como milhares de estudantes: teste grátis o Passei Direto

Esse e outros conteúdos desbloqueados

16 milhões de materiais de várias disciplinas

Impressão de materiais

Agora você pode testar o

Passei Direto grátis

Você também pode ser Premium ajudando estudantes

Prévia do material em texto

UNIVERSIDADE DO ESTADO DA BAHIA (UNEB)
UNIDADE ACADÊMICA DE EDUCAÇÃO A DISTÂNCIA (UNEAD)
LICENCIATURA EM CIÊNCIAS DA COMPUTAÇÃO
JOSÉ MARCELO OLIVEIRA DE CARVALHO
RESUMO 
ARQUITETURA DE COMPUTADORES
	
Sítio do Quinto, BA
2018
JOSÉ MARCELO OLIVEIRA DE CARVALHO
RESUMO 
ARQUITETURA DE COMPUTADORES
Atividade de participação de Resumo de Arquitetura de Computadores, apresentado à Universidade do Estado da Bahia, Campus Virtual, Pólo de Sítio do Quinto, como requisito parcial para aprovação no componente curricular Arquitetura de Computadores, do curso de Licenciatura Ciências da Computação.
Professor-formador: Márcio Freire Palmeira
Tutor a distância: Lorena Borges da Silva
Tutor presencial: Alexandra de Andrade Oliveira
Sítio do Quinto, BA
2018 
RESUMO
Um computador consiste no hardware e no software. O hardware é o equipamento físico: o próprio computador e os periféricos conectados. Os periféricos são todos os dispositivos ligados ao computador para finalidades de entrada, saída, e armazenamento dos dados (tais como um teclado, um monitor de vídeo ou um disco rígido externo). O software consiste nos programas e nos dados associados (informação) armazenados no computador. Um programa é uma seqüência de instruções que o computador segue com o objetivo de manipular dados. A possibilidade de incluir ou excluir programas diferentes é a fonte de versatilidade de um computador. Sem programas, um computador é apenas hardware de alta tecnologia que não faz qualquer coisa. Mas com a seqüência de instruções detalhadas, descrevendo cada passo do programa (escrito por seres humanos) o computador pode ser usado para muitas tarefas que variam do processamento de texto a simulação de padrões de tempo globais.
Para classificar as várias etapas do desenvolvimento dos computadores eletrônicos de acordo com a tecnologia utilizada, os computadores foram classificados em quatro gerações; A primeira geração dos computadores (1943-1959) é marcada pela utilização de válvulas. A válvula é um tubo de vidro, similar a uma lâmpada fechada sem ar em seu interior, ou seja, um ambiente fechado a vácuo, e contendo eletrodos, cuja finalidade é controlar o fluxo de elétrons o mesmo era um projeto britânico, sob a liderança do matemático Alan Turing, colocou em operação o COLOSSUS, eram usadas 2.000 válvulas mas as mesmas aqueciam bastante e costumavam queimar com facilidade; surgiu o ENIAC - Electronic Numerical Integrator and Computer, ou seja, "Computador e Integrador Numérico Eletrônico", projetado para fins militares, pelo Departamento de Material de Guerra do Exército dos EUA, na Universidade de Pensilvânia. Foi o primeiro computador digital eletrônico de grande escala projetado por John W. Mauchly e J. Presper Eckert. Este é considerado pelos pesquisadores como o primeiro “computador eletrônico de uso geral”, isto é, pode realizar diferentes funções a partir da troca de um programa, apesar da sua reprogramação levar semanas para ser concluída. O ENIAC tinhas 17.468 válvulas, 500.000 conexões de solda, 30 toneladas de peso, 180 m² de área construída, 5,5 m de altura, 25 m de comprimento e realizava uma soma em 0,0002 s. O ENIAC tinha um grande problema: por causa do número grande de válvulas eletrônicas, operando à taxa de 100.000 ciclos por segundo, havia 1,7 bilhão de chances a cada segundo de que uma válvula falhasse, além de superaquecer. As válvulas liberavam tanto calor, aproximadamente 174 KW, que mesmo com os ventiladores a temperatura ambiente chegava a 67°C. Então Eckert, aproveitou a idéia utilizada em órgãos eletrônicos, fazendo que as válvulas funcionassem sob uma tensão menor que a necessária, reduzindo assim as falhas para 1 ou 2 por semana. A segunda geração de computadores foi marcada pela substituição da válvula pelo transistor. O transistor revolucionou a eletrônica em geral e os computadores em especial. Eles eram muito menores do que as válvulas a vácuo e tinham outras vantagens: não exigiam tempo de pré-aquecimento, consumiam menos energia, geravam menos calor e eram mais rápidos e confiáveis. No final da década de 50, os transistores foram incorporados aos computadores, Em seguida vieram as linguagens de alto nível, como, por exemplo, Fortran e Cobol. No mesmo período surgiu o armazenamento em disco, complementando os sistemas de fita magnética e possibilitando ao usuário acesso rápido aos dados desejados.
A terceira geração de computadores é marcada pela utilização dos circuitos integrados, feitos de silício. Também conhecidos como microchips, eles eram construídos integrando um grande número de transistores, o que possibilitou a construção de equipamentos menores e mais baratos, mas o diferencial dos circuitos integrados não era o apenas o tamanho, mas o processo de fabricação que possibilitava a construção de vários circuitos simultaneamente, facilitando a produção em massa. Este avanço pode ser comparado ao advento da impressa, que revolucionou a produção dos livros. A IBM, que até então liderava o mercado de computadores, passou a perder espaço quando concorrentes passaram a vender periféricos mais baratos e que eram compatíveis com sua arquitetura. No final desta geração já começaram a surgir os computadores pessoais; IBM passou a separar a criação de hardware do desenvolvimento de sistemas, iniciando o mercado da indústria de softwares. Isto foi possível devido a utilização das linguagens de alto nível nestes computadores. Os computadores da quarta geração são reconhecidos pelo surgimento dos processadores — unidade central de processamento. Os sistemas operacionais como MS-DOS, UNIX, Apple’s Macintosh foram construídos. Linguagens de programação orientadas a objeto como C++ e Smalltalk foram desenvolvidas. Discos rígidos eram utilizados como memória secundária. Impressoras matriciais, e os teclados com os layouts atuais foram criados nesta época.
Os componentes dos computadores foram se modificando e se aperfeiçoando, passando pela Arquitetura de Harvard onde a máquina tinha espaço limitado para o armazenamento de dados, inteiramente contido na Unidade Central de Processamento, e como não havia nenhuma ligação dessa memória com o armazenamento de instrução, o programa era carregamento e modificando de forma inteiramente isolada (off-line); Arquitetura Von Neumann mantém suas instruções de programa e seus dados na memória de leitura/escrita (RAM). Essa arquitetura foi um avanço significativo sobre os computadores dos anos 40, tais como o Colossus e o ENIAC, que eram programados ajustando interruptores e introduzindo cabos para ligar os sinais de controle entre as várias unidades funcionais. Na maioria dos computadores modernos usa-se a mesma memória para armazenar dados e instruções de programa; gargalo de Von Neumann, devido à limitação da taxa de transferência dos dados do barramento entre o processador central e à memória. Na maioria de computadores modernos, a taxa de transmissão do barramento geralmente é muito menor do que a taxa em que o processador central pode trabalhar. Isso limita seriamente a velocidade de processamento efetivo quando o processador central é exigido para executar o processamento de grandes quantidades de dados na memória. O processador central é forçado continuamente a esperar a transferência de dados de ou para memória. A partir do aumento da velocidade dos processadores e o aumento do tamanho e da velocidade das memórias, o gargalo do barramento único se transformou em mais um problema. O termo de “gargalo Von Neumann” foi criado por John Backus em artigo no 1977 ACM Turing Award.
A Lei de Moore descreve uma tendência histórica de longo prazo na evolução de desempenho de hardware, em que o número de transistores que podem ser colocados em um circuito integrado dobra a aproximadamente cada dezoito meses. Mesmo não sendo uma “lei natural” que não possa ser controlada, a Lei de Moore é um bom prognóstico para o avanço da tecnologia micro-eletrônica nos últimos40 anos.
Em 13 de abril de 2005, Gordon Moore anunciou em uma entrevista que a lei não pode se sustentar indefinidamente impondo limites a mesma: “Não pode continuar para sempre. A natureza das taxas exponenciais é que você os empurra para fora e eventualmente disastres acontecem.”
No entanto, previu que os transistores alcançariam os limites atô- micos de miniaturização: “Nos termos de tamanho [dos transistores] você pode ver que nós estamos nos aproximando do tamanho dos átomos que é uma barreira fundamental, mas serão duas ou três gerações antes de alcançarmos e que parece tão distante e talvez não chegaremos a vê-lo. Nós ainda temos 10 a 20 anos antes que nós alcancemos o limite fundamental. Até lá poderemos fazer chips maiores e quantidade de transistores da ordem de bilhões”. Em 1995, o microprocessador Digital Alpha 21164 tinha 9.3 milhão de transistores. Seis anos mais tarde, um microprocessador avançado tinha mais de 40 milhões de transistores. Teoricamente, com miniaturização adicional, em 2015 esses processadores devem ter mais de 15 bilhões de transistores, e por volta de 2020 chegará na escala de produção molecular, onde cada molécula pode ser individualmente posicionada.
Em 2003 a Intel previu que o fim viria entre 2013 e 2018 com processo de manufatura de 16 nanômetros e portas com 5 nanômetros, devido ao tunelamento quântico do silício. No entanto, a melhoria da qualidade do processo de fabricação poderia aumentar o tamanho dos chips e aumentar a quantidade de camadas pode manter o crescimento na taxa da Lei de Moore por pelo menos uma década a mais.

Mais conteúdos dessa disciplina