Prévia do material em texto
1 Como Funciona Aparelhos, Circuitos e Componentes Eletrônicos Volume 9 Newton C. Braga Patrocinado por 2 http://www.newtoncbraga.com.br/index.php/component/banners/click/157 https://br.mouser.com/?utm_source=newtoncbraga&utm_medium=display&utm_campaign=book_pt&utm_content=como_funciona_9 São Paulo - Brasil - 2021 Instituto NCB www.newtoncbraga.com.br leitor@newtoncbraga.com.br Diretor responsável: Newton C. Braga Coordenação: Renato Paiotti Impressão: AgBook – Clube de Autores Nosso Podcast 3 mailto:leitor@newtoncbraga.com.br http://www.newtoncbraga.com.br/ https://open.spotify.com/show/2QizlQqZj7MUJNfxKXohER https://podcasts.apple.com/br/podcast/incb-tecnologia/id1486925973 https://podcasts.google.com/?feed=aHR0cDovL3d3dy5uZXd0b25jYnJhZ2EuY29tLmJyL3BvZGNhc3QvcnNzLnhtbA== http://tun.in/pjDF1 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos - Volume 9 Autor: Newton C. Braga São Paulo - Brasil - 2021 Palavras-chave: Eletrônica – aparelhos eletrônicos – componentes – física – química – circuitos eletrônicos – como funciona Copyright by INTITUTO NEWTON C BRAGA. 1ª edição Todos os direitos reservados. Proibida a reprodução total ou parcial, por qualquer meio ou processo, especialmente por sistemas gráficos, microfílmicos, fotográficos, reprográficos, fonográficos, videográficos, atualmente existentes ou que venham a ser inventados. Vedada a memorização e/ou a recuperação total ou parcial em qualquer parte da obra em qualquer programa juscibernético atualmente em uso ou que venha a ser desenvolvido ou implantado no futuro. Essas proibições aplicam-se também às características gráficas da obra e à sua editoração. A violação dos direitos autorais é punível como crime (art. 184 e parágrafos, do Código Penal, cf. Lei nº 6.895, de 17/12/80) com pena de prisão e multa, conjuntamente com busca e apreensão e indenização diversas (artigos 122, 123, 124, 126 da Lei nº 5.988, de 14/12/73, Lei dos Direitos Autorais). 4 Índice APRESENTAÇÃO DA SÉRIE..........................................................8 APRESENTAÇÃO......................................................................10 ANTENAS – COMO FUNCIONAM.................................................11 DIPOLO DE MEIA ONDA...........................................................18 DIPOLO DOBRADO...................................................................18 YAGI........................................................................................19 HELICOIDAL.............................................................................19 PLANO-TERRA..........................................................................20 O TELÉGRAFO E O CÓDIGO MORSE...........................................22 TELEGRAFIA HOJE E O SOS.....................................................23 BAUD E BPS.............................................................................24 QUANDO BAUD E BPS SÃO DIFERENTES.................................25 A LEI DE MOORE......................................................................27 DO TRANSISTOR AO CIRCUITO INTEGRADO............................30 AS OBSERVAÇÕES DE GORDON MOORE..................................33 BARÔMETRO TECNOLÓGICO...................................................35 A IMPORTÂNCIA DOS COMPUTADORES...................................38 ATÉ QUANDO A LEI DE MOORE SERÁ VÁLIDA?........................38 CONCLUSÃO............................................................................40 COMPARADORES DE TENSÃO E DISCRIMINADORES DE JANELA...44 OS AMPLIFICADORES OPERACIONAIS......................................44 O 741......................................................................................46 COMPARADORES DE TENSÃO..................................................47 DISCRIMINADORES DE JANELA................................................50 A TECNOLOGIA DO CIRCUITO INTEGRADO.................................55 VOLTANDO UM POUCO NO TEMPO..........................................55 FABRICANDO UM CIRCUITO INTEGRADO.................................57 CONCLUSÃO............................................................................63 GERAÇÃO DE CALOR NOS CIRCUITOS ELETRÔNICOS E A LEI DE JOULE.....................................................................................65 GERAÇÃO DE CALOR...............................................................65 a) contato...................................................................68 b) Convecção.............................................................69 c) Irradiação...............................................................70 5 LEI DE JOULE...........................................................................71 SUPERCAPACITORES................................................................73 OS ELETROLÍTICOS DE ALUMÍNIO............................................74 CAPACITORES DE TÂNTALO.....................................................76 SUPER E HIPER CAPACITORES................................................76 CAPACITORES DE TÂNTALO......................................................81 INTRODUÇÃO..........................................................................81 O ELETROLÍTICO COMUM DE ALUMÍNIO...................................82 O CAPACITOR DE TÂNTALO.....................................................84 CÓDIGOS DE LEITURA.............................................................85 SENSORES DE IMAGENS...........................................................87 COMO ENTÃO TUDO ISSO FUNCIONA?....................................88 O Princípio de Funcionamento....................................88 Sensores de Imagem..................................................90 MULTIPLEXADORES/DEMULTIPLEXADORES DIGITAIS...............91 4051/4052/4053......................................................................91 PRINCÍPIO DE FUNCIONAMENTO.................................93 CARACTERÍSTICAS ELÉTRICAS....................................96 CIRCUITOS EQUIVALENTES......................................................97 TERMOPILHAS – FONTES ALTERNATIVAS DE ENERGIA..............100 TERMOPILHAS.......................................................................101 EQUIPAMENTO EEG ALIMENTADO POR TERMOPILHA.............103 O UTILÍSSIMO INJETOR DE SINAIS...........................................105 O INJETOR.............................................................................107 COMO USÁ-LOS.....................................................................108 ENCONTRANDO PROBLEMAS COM O INJETOR.......................112 CONCLUSÃO..........................................................................115 RUMO A IOP (INTERNET DAS PESSOAS)..................................116 CHAVES E ACOPLADORES ÓPTICOS.........................................120 ACOPLADORES ÓPTICOS.......................................................120 CIRCUITOS PRÁTICOS COM ACOPLADORES ÓPTICOS...........122 Circuito básico com optoacoplador:.........................122 Disparo de SCR.........................................................124 Excitando Amplificador Operacional.........................125 Acoplador de Alta Velocidade...................................126 Monoestável com Optoacoplador.............................127 Schmitt Trigger........................................................128 6 Flip-Flop R-S.............................................................128 Excitação de Triacs..................................................129 TIPOS COMUNS.....................................................................130 4N25/4N25A/4N26/4N27/4N28.................................131 MOC3009/MOC3010/MOC3011/MOC3012................132 MOC3020/MOC3021/MOC3022/MOC3023................133 CHAVES ÓPTICAS.................................................................135 CIRCUITOS PRÁTICOS...........................................................139 Chave Óptica para 10 mm........................................139Chave Óptica para 15 mm........................................139 Chave Óptica Disparadora (Schmitt) para 15 mm....140 Chave Óptica para 30 mm........................................141 Interface Reconhecedora de Direção........................142 Contador Dependente da Direção............................143 Controle Digital de Rotação......................................144 HVT-JFET-POWERMOS-THY-GTO-IGBT.....................................146 VOCÊ CONHECE TODOS ESTES SEMICONDUTORES DE POTÊNCIA?.................................................................................146 DISPOSITIVOS DE 3 CAMADAS...............................................147 TRANSISTOR DE ALTA TENSÃO (HVT).......................148 O JFET.......................................................................149 O TRANSISTOR MOS.................................................150 DISPOSITIVOS DE 4 CAMADAS..................................152 O TIRISTOR (THY).....................................................153 O GTO......................................................................154 O SITh......................................................................154 O IGBT......................................................................155 CONCLUSÃO..........................................................................157 OS ULTRASSONS...................................................................158 INTRODUÇÃO........................................................................158 APLICAÇÕES PRÁTICAS..........................................................166 CONCLUSÃO..........................................................................170 OUTROS MAIS DE 160 LIVROS DE ELETRÔNICA E TECNOLOGIA DO INCB.....................................................................................171 7 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 APRESENTAÇÃO DA SÉRIE Esta é uma série de livros que levamos aos nossos leitores sob patrocínio da Mouser Electronics (www.mouser.com). Os livros são baseados nos artigos que ao longo de nossa carreira como escritor técnico publicamos em diversas revistas, livros e no nosso site. São artigos que representam 50 anos de evolução das tecnologias eletrônicas e, portanto, têm diversos graus de atualidade. Os mais antigos foram analisados com eventuais atualizações. Outros pela sua finalidade didática, tratando de tecnologias antigas e mesmo de ciência não foram muito alterados a não ser pela linguagem que sofreu modificações. Os livros da série consistirão numa excelente fonte de informações para nossos leitores. Os artigos têm diversos níveis de abordagem, indo dos mais simples que são indicados para os que gostam de tecnologia, mas que não possuem uma fundamentação teórica forte ou ainda não são do ramo. Neles abordamos o funcionamento de aparelhos de uso comum como eletroeletrônicos, não nos aprofundando em detalhes técnicos que exijam conhecimento de teorias que são dadas nos cursos técnicos ou de engenharia. Outros tratam de componentes, ideais para os que gostam de eletrônica e já possuem uma fundamentação quer seja estudando ou praticando com as montagens que descrevemos em nossos artigos. Estes já exigem um pequeno conhecimento básico da eletrônica. Estes artigos também vão ser uma excelente fonte de consulta para professores que desejam preparar suas aulas. Temos ainda os artigos teóricos que tratam de circuitos e tecnologias de uma forma mais profunda com a abordagem de instrumentação e exigindo uma fundamentação técnica mais alta. São indicados aos técnicos com maior experiência, engenheiros e professores. Também lembramos que no formato virtual o livro conta com links importantes, vídeos e até mesmo pode passar por atualizações on-line que faremos sempre que julgarmos necessário. 8 NEWTON C. BRAGA Trata-se de mais um livro que certamente será importante na sua biblioteca de consulta, devendo ser carregado no seu tablete, laptop ou celular para consulta imediata. Os livros podem ser baixados gratuitamente no nosso site e um link será dado para os que desejarem ter a versão impressa pagando apenas pela impressão e frete. Newton C. Braga 9 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 APRESENTAÇÃO Saber como funcionam componentes, circuitos e equipamentos eletrônicos é fundamental não apenas para os profissionais da eletrônica que usam de forma prática a tecnologia em seu dia a dia como também para aqueles que não sendo técnicos, mas possuindo certo conhecimento, precisam conhecer o funcionamento básico das coisas. São os profissionais de outras áreas que, para usar melhor equipamentos e tecnologias precisam ter um conhecimento básico que os ajude. Assim, tratando de conceitos básicos sobre componentes e circuitos neste primeiro volume e depois de equipamentos prontos num segundo, levamos ao leitor algo muito importante que já se tornou relevante em recente estudo feito por profissionais. A maior parte dos acidentes que ocorrem com o uso de equipamentos de novas tecnologias ocorre com pessoas que não tem um mínimo de conhecimento sobre o seu princípio de funcionamento. A finalidade deste livro não é, portanto, ajudar apenas os estudantes, professores e profissionais, mas também os que usam tecnologia no dia a dia e desejam saber um pouco mais para melhor aproveitá-la e não cometer erros que podem comprometer a integridade de seus equipamentos e até causar acidentes graves. Nota importante: componentes básicos como os resistores, capacitores, indutores, transformadores, diodos, transistores, também têm a seu princípio de funcionamento explicado na nossa série de livros “Curso de Eletrônica”. Neste livro, abordamos alguns componentes que especificamente têm explicações mais detalhadas do que as encontradas naquelas publicações. 10 NEWTON C. BRAGA ANTENAS – COMO FUNCIONAM A antena é um elemento de interfaceamento que transfere para o espaço, na forma de ondas eletromagnéticas os sinais gerados pelo transmissor, ou então capta as ondas eletromagnéticas, transferindo os sinais gerados para o circuito receptor. No transmissor, a antena converte os sinais de altas frequências gerados pelo transmissor em ondas de mesmas características. No receptor, a antena gera correntes de altas frequências quando intercepta as ondas eletromagnéticas. O tipo mais comum de antena transmissora é o dipolo. Quando aplicamos a esta antena um sinal, aparecem campos elétricos e magnéticos. Se analisarmos o que ocorre nesta antena, veremos que a corrente e tensão ao longo dos elementos condutores que formam a antena se distribuem de maneiras diferentes, conforme mostrado na figura 1. Figura 1 – Tensão e corrente num dipolo. Por esta figura vemos que se as dimensões da antena corresponderem à metade do comprimento da onda (L/2), a tensão será máxima na extremidade e a corrente mínima. Este comportamento é justamente característico de um circuito ressonante em que temos uma característica puramente resistiva no centro da antena, sem componentes indutivas ou capacitivas, 11 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 pois a reatância capacitiva Xc e a reatância indutiva XL se cancelam. Esta característica resistiva pode ser calculada resultando na impedância da antena que é de 73 ohms. No entanto, para maior facilidade de utilização, o valor adotado nos cálculos é 75 ohms. Lembramos que a impedância de uma antena ou de qualquer dispositivo que deva receber ou transmitir sinais é muito importante em qualquer projeto. Só ocorre a máxima transferência de energia de um transmissor para uma antena, por exemplo, quando as suas impedâncias são iguais.Como a finalidade de uma antena é transferir para o espaço o máximo de energia quando utilizada num transmissor, a sua construção deve ser tal que isso ocorra. Assim, os diversos tipos de antena que existem visam não apenas esta característica como também a possibilidade de concentrar energia com maior intensidade numa determinada direção. Isso nos leva ao conceito de ganho de uma antena. Uma antena é um elemento passivo de um circuito de transmissão ou de recepção de sinais, isto é, ela não amplifica os sinais. Neste caso então, o conceito de ganho tem um significado diferente. O termo ganho, para uma antena, é utilizado para designar sua capacidade de transmitir ou receber com mais facilidade os sinais numa determinada direção. Desta forma, se a antena irradia os sinais com a mesma intensidade em todas as direções, ou seja, ela é uma antena unidirecional (1), conforme mostra a figura 2, podemos dizer que esta antena tem ganho unitário e ela pode servir de referência para comparação com antenas que podem concentrar os sinais em uma determinada direção, se forem transmissoras, ou receber melhor os sinais que venham de uma certa direção, se forem receptoras. 1 - Em algumas publicações técnicas antigas encontramos o termo omnidirecional para este tipo de antena, onde omni em latim significa todas. 12 NEWTON C. BRAGA Figura 2 – Uma antena unidirecional transmite (ou recebe) os sinais de todas as direções com a mesma intensidade. Se uma antena consegue concentrar duas vezes mais energia numa determinada direção do que uma antena onidirecional tomada como padrão, então esta antena tem um ganho. Usando como referência o dB, a antena padrão teria um ganho nulo (0 dB). Partindo então desta antena como referência podemos escrever uma fórmula logarítmica para o ganho de uma antena: G(dB) = 10 log (P1/P2) Onde: G é o ganho da antena em dB Log é o logaritmo na base 10 P1 é a potência da antena considerada em mW P2 é a potência da antena padrão em mW Podemos dar como exemplo uma antena que irradia 20 W numa determinada direção enquanto a que a antena padrão irradia 1 W na mesma direção. O ganho desta antena será: G = 10 log (20/1) = 17 dB Para uma antena receptora a comparação é feita entre a intensidade que ela recebe o sinal de uma determinada direção e 13 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 a intensidade que a antena padrão recebe o mesmo sinal. Na figura 3 mostramos o diagrama típico de diretividade de uma antena onde podem ser observados na plotagem os ganhos em diversas direções. Figura 3 – Diagrama de ganhos de uma antena direcional. Observe que este diagrama mostra alguns lóbulos laterais que são comuns nas antenas reais. Na prática, entretanto, algumas antenas produzem padrões bastante complexos com lóbulos em diversas direções, atestando neste caso a irradiação em direções nem sempre desejáveis. Este diagrama e o próprio conceito de ganho nos permitem falar em diretividade de uma antena como sua capacidade de concentrar sinais em uma determinada direção. A diretividade de uma antena é determinada pelo modo como ela é construída, ou seja, pela disposição de seus elementos. O diagrama de ganhos é também um diagrama de diretividade. Na figura 4 temos uma outra maneira de se representar o ganho de uma antena. 14 NEWTON C. BRAGA Figura 4 – A diretividade de uma antena é a capacidade dela concentrar os sinais numa determinada direção. Observe que nesta representação não temos a indicação do ganho na direção em que o sinal é concentrado. Como as antenas reais não irradiam toda a sua energia na direção desejada, mas também em outras direções, formando lóbulos indesejáveis, como vimos na figura, em alguns casos é conveniente termos uma ideia da quantidade de energia que é irradiada na direção contrária à orientação da antena. Isso nos leva a definir o que se denomina “relação frente/costa” de uma antena. Trata-se da relação entre a intensidade dos sinais irradiados na direção da orientação da antena (frente) e na direção contrária (costas) ou A/B, conforme mostra a figura 5. Figura 5 – Relação frente/costas de uma antena 15 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Uma outra característica importante de uma antena é a sua polarização. Conforme vimos, uma onda eletromagnética possui componentes magnética e elétrica que são perpendiculares entre si. Quando esta onda é irradiada, o sinal avança segundo uma certa orientação que depende da construção da antena. Para receber de forma apropriada estes sinais, a antena receptora deve ter uma disposição de elementos que corresponda à orientação destes sinais. Dizemos então que as antenas possuem polarizações que devem ser observadas quando da sua instalação. Se uma antena tem uma polarização vertical, por exemplo, a antena receptora deve ter a mesma orientação, conforme mostra a figura 6. Figura 6 – Polarização vertical de uma antena Existem diversos tipos de polarização possíveis além da horizontal e vertical que são as mais comuns. Por exemplo, é possível gerar padrões de polarização na antena transmissora que mudam constantemente, possibilitando o uso de antenas receptoras com qualquer posicionamento. Isso ocorre, por exemplo, com a denominada “polarização circular”. O tipo mais simples de antena é aquela formada apenas por elementos que irradiam ou recebem os sinais. Estas antenas possuem alguns formatos básicos que determinam tanto a polarização como sua diretividade. No entanto, podemos 16 NEWTON C. BRAGA melhorar o desempenho de uma antena, aumentando sua diretividade ou ainda dotando-a de determinado tipo de polarização, utilizando elementos adicionais. Assim, de acordo com a disposição dos elementos, quantidade dos elementos, padrões de irradiação, existem diversos tipos de antenas. Nas antenas comuns encontramos normalmente três tipos de elementos: Os elementos irradiantes ou ativos são os que transferem os sinais do transmissor para o espaço ou que interceptam os sinais que devem ser recebidos. Os elementos refletores refletem os sinais em direção aos elementos ativos ou os sinais dos elementos ativos para uma determinada direção enquanto os elementos diretores dirigem os sinais para os elementos ativos ou ajudam a concentrar os sinais numa certa direção, conforme mostra a figura 7. Figura 7 – Os elementos de uma antena. Na antena mostrada na figura 7 temos 4 elementos diretores, um elemento refletor e um elemento irradiante ou ativo. Os tipos mais comuns de antenas são: 17 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 DIPOLO DE MEIA ONDA Conforme já vimos, o dipolo de meia onda é formado por dois condutores que, esticados cobrem um comprimento à metade do comprimento da onda do sinal que deve ser transmitido ou recebido. O diagrama de diretividade desta antena é dado na figura 8. Figura 8 – Diagrama de diretividade de um dipolo de meia onda. Conforme podemos ver, ela irradia com a mesma intensidade em direções opostas, apresentando, portanto ganho nestas direções. A impedância do dipolo de meio onda é de 75 ohms. DIPOLO DOBRADO O dipolo dobrado é um tipo de antena cuja forma e dimensões são mostradas na figura 9. O diagrama de diretividade desta antena é bastante semelhante ao dipolo de meia onda e 18 NEWTON C. BRAGA sua impedância é de 300 ohms. Este tipo de antena é bastante utilizada para a recepção de sinais de TV. Figura 9 – Dipolo dobrado A distância d que separa os elementos condutores corresponde ao comprimento de onda dividido por 12,6. YAGI Nesta antena temos elementos ativos, um elemento refletor e diversos elementos diretores. O número de diretores determinasua diretividade e portanto seu ganho. A antena da figura 10 é uma antena yagi. Sua impedância típica é de 50 ohms. HELICOIDAL Trata-se de um tipo de antena muito utilizado em sistemas de comunicação por micro-ondas dadas as dimensões que o elemento helicoidal deve ter. Na figura 11 temos um exemplo de antena helicoidal. 19 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 12 – Antena helicoidal O espaçamento entre as espiras (s) deve ser de ¼ do comprimento de onda com que a antena trabalhar e a dimensão D, diâmetro das espiras corresponde a 1/3 do comprimento de onda. O Diâmetro do refletor é de 80% do comprimento de onda. PLANO-TERRA Um tipo de antena bastante empregada em sistemas de telecomunicações é a plano-terra que possui uma impedância de 30 ohms, conforme mostra a figura 13. Figura 13 – Uma antena básica plano-terra. 20 NEWTON C. BRAGA A altura (a) do elemento central corresponde a ¼ do comprimento de onda com que a antena trabalha enquanto que os elementos radiais (b) devem ter o mesmo comprimento da onda do sinal recebido ou transmitido. Conforme podemos observar as dimensões de uma antena são tanto menores quanto maior for a frequência de uma operação. Com a utilização crescente das faixas superiores do espectro a tendência é de que as antenas sejam cada vez menores. Na faixa dos gigahertz, por exemplo, as antenas se tornam tão pequenas que já podem ser incorporadas nas placas de circuito impresso. É o que ocorre em muitos casos de comunicações sem fio portáteis como telefones, GPS, etc. 21 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 O TELÉGRAFO E O CÓDIGO MORSE Nessa modalidade de transmissão, um manipulador interrompia e estabelecia a transmissão periodicamente, gerando assim pulsos de curta e longa duração, conforme mostra a figura 1. Figura 1- Um transmissor de onda contínua (CW) Na figura 2 mostramos um manipulador telegráfico. Figura 2 - Manipulador telegráfico antigo. 22 NEWTON C. BRAGA Os primeiros tipos de transmissores sem fio e mesmo as transmissões telegráficas através de fio se baseavam na emissão de pulsos codificados, exatamente como fazem os modems atuais, mas operados manualmente. O Código Morse completo é dado a seguir; A modalidade de transmissão que usa este tipo de modulação é denominada CW ou onda continua (continuous wave). Alguns exames para profissionais de telecomunicações exigem o conhecimento do Código Morse. Uma característica importante das transmissões de rádio em onda contínua (CW) é que a concentração da energia numa faixa muito estreita do espectro, pois a portadora não sofre variações de frequência possibilita a obtenção de maior alcance. TELEGRAFIA HOJE E O SOS Se bem que o sistema de transmissão telegráfica via CW esteja superado, ele ainda tem importância em casos de emergência. Quando é possível ter apenas um meio de se transmitir sinais, mas sem ser possível a modulação, ainda assim é possível fazer com que ele transporte mensagens. Mas, foi com 23 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 a invenção da telegrafia sem fio (TSF) Marconi diante de convenção inadequadas da época redigiu uma nota em que dizia que o sinal a ser usado pelos navios em caso de perigo seria CQD. Este sinal só poderia ser emitido por ordem do comandante. Em Julho de 1908 o sinal CQD foi substituído por SOS segundo decisão da Convenção Radio Telegráfica Internacional dado que empregava uma sequência pouco usada. A primeira vez que o sinal SOS foi usado foi no naufrágio do SS Arapahoe no Atlântico Norte, em 1909, com o sinal sendo captado numa estação dos Estados Unidos. BAUD E BPS Antigamente, o principal meio de se enviar dados através de fios elétricos era o telégrafo. Um operador manipulava uma chave produzindo pulsos elétricos que atuavam sobre uma campainha ou receptor do outro lado da linha produzindo estalidos ou toques. Um toque curto era interpretado como um ponto e um toque longo como um traço. Traços e pontos (que poderiam ser associados aos zeros e uns da comunicação digital) formavam então as letras, números, e outros símbolos. A recepção da mensagem dependia principalmente do bom ouvido de quem deveria anotar os cliques curtos e longos correspondentes aos pontos e traços. O operador, por outro lado deveria ter a capacidade de enviar estes impulsos com grande velocidade. Um francês denominado J. M. Emile. Baudot foi o primeiro que criou uma maneira de se medir a velocidade das transmissões telegráficas dando origem a unidade denominada Baud e que inventou o teletipo. Quando o telegrafista toca no manipulador ele produz uma transição de sinal na linha em que a tensão passa de 0 a 12 Volts, por exemplo, tantas vezes quantas ele atue sobre o manipulador. Cada vez que ele aciona o manipulador dizemos que um baud é transmitido. Indo além, e passando para a era digital em que não transmitimos pontos e traços, mas zeros e uns para formar os bytes, podemos associar uma tensão de -12 V ao bit 0 e uma tensão de +12 V a um bit 1. Assim, se quisermos transmitir uma sequência de dados na forma digital como 11001101 a tensão no fio vai sofrer o mesmo número de transições quantos sejam os bits transmitidos. 24 NEWTON C. BRAGA Dizemos então que a quantidade de bits por segundo ou bps que transmitimos neste caso é igual a velocidade de transmissão em bauds. QUANDO BAUD E BPS SÃO DIFERENTES Tudo seria muito simples e haveria uma equivalência entre o baud e o bps se as linhas telefônicas não tivessem uma séria limitação de velocidade. A frequência máxima que uma linha telefônica pode transmitir é da ordem de 3000 Hz, o que significa que fica muito difícil tentarmos "empurrar" da forma indicada por uma linha bits numa velocidade maior que isso. Na prática, esta velocidade está limitada a 2400 bauds. Para poder comprimir mais dados pela linha a solução usada é muito engenhosa. Por que não usar a transição de -12 a +12 V para transmitir não apenas os bits 0 ou 1 mas, para transmitir mais bits. Podemos, por exemplo, associar ao valor -12 V o grupo de bits 00, ao valor -6 V o grupo 01, ao valor +6 V o grupo 10 e ao valor +12 o grupo 11, conforme mostra a tabela abaixo. Tensão Dado - 12 V 00 - 6 V 01 + 6 V 10 + 12 V 11 Veja então que, com 2 bauds na verdade podemos transmitir 4 bits diferentes, dobrando assim a velocidade. Assim, uma velocidade de 2 400 bauds pode perfeitamente, usando esta técnica transmitir 4 800 bps. Na prática é justamente isso que os modems fazem. Mantendo a velocidade em bauds eles utilizam diversos tipos de modulação do sinal de modo a poder "enfiar" mais bits por transição. Eles podem utilizar mais de 4 amplitudes do sinal para multiplicar o número de bits, utilizar alterações de fase do sinal, etc. Assim, um modem de 2 400 bauds que aproveite 6 estados da transição do sinal, ou seja, pode enviar 6 bits por baud pode ter uma velocidade de 14 400 bps. Um modem de 28 800 bps pode ser obtida com um modem de 3 200 bauds que utilize 9 bits por baud. Com exceção dos modems de 56k os modems comuns operam em velocidades de 2 400, 3 000 ou 3 200 bauds quando conectados às linhas telefônicas. Os modems de 56 k podem usar velocidades maiores 25 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 em bauds quando a linha admite, mas em geral eles "ajustam" sua velocidade para valores menores dependendo das condições locais da linha de modo a conseguir uma operação segura, sem perdas de dados. Existem ainda os moderms para a porta serial que operam em velocidades maiores como 19,2, 28,8, 33,6, 57,6 e 115,2 k bps e em alguns casos valores de 230,5 k bps são possíveis. Jean Maurice Émile Baudot– 1845 - 1903 26 NEWTON C. BRAGA A LEI DE MOORE Foi em 1965 que Gordon Moore observou que a eletrônica dos semicondutores seguia um processo evolutivo regido por um comportamento muito bem definido. Esse comportamento, que foi posteriormente descrito em pormenores por Moore num artigo técnico, acabou sendo conhecido por "Lei de Moore" e hoje tem uma importância fundamental na determinação de novos produtos que são lançados continuamente com base nos semicondutores, principalmente os computadores. Como um "termômetro da indústria de semicondutores, a Lei de Moore trata basicamente do aumento da densidade dos dispositivos semicondutores nos chips influenciando diretamente na estratégia de ação dos fabricantes de uma forma que ficará mais clara com o artigo que estamos levando aos leitores. O artigo original é de 2002, mas sua importância é grande, pois alguns aspectos da Lei de Moore ainda são válidos e o assunto ainda é centro de muitas discussões quando se fala nas tendências da eletrônica dos próximos anos. Assim, atualizamos o artigo no final, com informações de 2013 e para depois ainda existe mais. 27 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Gordon More Para tudo existe um limite. As curvas que tratam da evolução de qualquer tipo de tecnologia sempre esbarram com limites teóricos que normalmente significam a transição para novas tecnologias. Isso fica bem claro o livro "A Infoera" do Prof. João Antonio Zuffo, onde ele analisa as durações das diversas eras tecnológicas e as suas consequências, principalmente para quem tem na eletrônica seu campo de atividades. 28 NEWTON C. BRAGA A Infoera, livro em que o autor analisa as tendências da tecnologia para o futuro Para o caso da eletrônica dos semicondutores, base dos computadores, a observação de que havia um limite para a densidade de componentes que poderiam ser integrados numa pastilha de silício, e de que modo isso influenciaria a evolução da eletrônica veio com um artigo publicado numa revista técnica por Gordon Moore em 1965. Naquela época, os chips não continham mais do que algumas dezenas de componentes, e os computadores ainda eram limitados pelos componentes discretos e baixo grau de integração. Moore afirmava que esse número de componentes, dobrando a cada ano, acabaria por esbarrar em um limite que definiria até onde a tecnologia do silício ou a integração poderia ir. A observação de Moore acabou por se comprovar, não só pelos dez anos seguintes, prazo que Moore previa como de validade para sua lei, mas por muito mais tempo. Conforme mostra o gráfico da figura 2, em que temos a quantidade de componentes por chip para os microprocessadores da Intel. A validade das previsões de Moore fizeram com que ela se tornasse uma Lei, conhecida por Lei de Moore. 29 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 2 - gráfico mostrando a evolução da quantidade de componentes por chip para os microprocessadores da Intel entre 1975 e 2000 DO TRANSISTOR AO CIRCUITO INTEGRADO A nova era da eletrônica certamente começou com a invenção do transistor em 1947. O "transfer resistor" ou transistor foi criado nos laboratórios da Bell e se baseava no conceito de que era possível controlar o fluxo elétrico num material sólido como o silício. Daí o nome de eletrônica "do estado sólido" para designar a nova tecnologia que substituía (ou pelo menos pretendia) substituir a tecnologia das válvulas onde o fluxo elétrico era controlado no vácuo. 30 NEWTON C. BRAGA Figura 3 - Foto do primeiro transistor - Cortesia Bell Labs Foi a partir de 1950, entretanto, que ocorreu um significativo progresso nas pesquisas na eletrônica de estado sólido, com a criação de novos processos de projeto e fabricação de dispositivos semicondutores. Podemos dizer que nessa época a eletrônica dos semicondutores deixou de ser ciência para se tornar muito mais tecnologia de produção. É interessante observar, nesse ponto, que a cada dia existe um prazo menor entre o momento em que uma descoberta é ciência e se torna tecnologia. Em alguns casos, a descoberta, mesmo eu baseada em ciência pura, já sai diretamente para uso como uma forma de tecnologia. Antes dessa época os poucos transistores disponíveis comercialmente eram fabricados por processos rudimentares manuais, com um elevado grau de rejeição, bem diferente dos processos em série, em salas limpas, que temos hoje. O que houve basicamente, a partir dessa época, foi um refinamento das técnicas de produção, que culminou com a invenção do circuito integrado por Jack Kilby em 1958. 31 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 4 - Jack Kilby, inventor do circuito integrado - Foto Texas Instruments O advento do CI significou uma quebra de barreiras tecnológicas com poucas implicações científicas. Talvez mais importante que a própria invenção CI, em 1950, também foram as inovações no processo de fabricação de dispositivos semicondutores propostas pela Bell e General Electric. Nessa época foram apresentados os processos de difusão e máscara de óxido e o processo planar, que se tornaram base da produção desde então. O processo de difusão permitia ao fabricante difundir impurezas ou dopantes, diretamente na superfície do semicondutor, eliminando o trabalhoso processo de colocar e tirar máscaras de material isolante nas diversas camadas sobre o substrato. Usando processos sofisticados era possível, a partir de então, desenhar padrões intrincados de máscaras para os materiais semicondutores, dopando apenas determinadas áreas. Essas descobertas levaram a um aumento na precisão dos dispositivos que passaram a ser muito mais confiáveis. Mas, o grande mérito do processo planar estava na possibilidade de se integrar circuitos no mesmo substrato. As conexões elétricas entre os diversos elementos ou circuitos poderiam ser internas ao chip, conforme reconheceu Robert Noyce da Fairchild ao anunciar sua descoberta. 32 NEWTON C. BRAGA O primeiro transistor planar apareceu em 1959, seguido pelo primeiro circuito integrado planar, em 1961, lançados pela Fairchild. figura 6 - sequência de etapas no processo de fabricação de um transistor planar - Fairchild É claro que os processos evoluíram muito a partir de então possibilitando um aumento constante da densidade de componentes colocados num único chip. O processo de "fotolitografia" evoluiu possibilitando a integração de componentes cada vez menores. AS OBSERVAÇÕES DE GORDON MOORE Foi em 1965 que, num artigo de uma revista técnica (Electronics), que Gordon Moore publicou o artigo "Cramming more components onto integrated circuits", na ocasião assinando como Diretor do Laboratório de Pesquisa e Desenvolvimento da Fairchild. No artigo, com menos de 4 páginas, ele levantava a questão se era possível prever o que aconteceria na indústria de semicondutores nos 10 anos seguintes, ou seja, até 1975. Ele 33 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 especulava então, que em torno de 1975 seria possível concentrar num único chip algo em torno de 65 000 componentes, ocupando uma área de 1/4 de polegada quadrada. Na ocasião ele afirmava que: "A complexidade para um mínimo custo de componentes tem crescido numa taxa que se aproxima do fator dois por ano. Certamente, a curto prazo, espera-se que essa taxa continue, senão aumente. A longo prazo, a taxa de crescimento pode um pouco mais incerta, apesar de que não há razão para acreditar que ela permaneça constante por pelo menos 10 anos." (Moore, 1965) Dez anos mais tarde, Moore reexaminavaa taxa de crescimento anual da densidade de componentes. Essa alteração deveu-se ao aparecimento de novas tecnologias como os dispositivos MOS e as memórias CCDs (charge-coupled devices). No documento ele mostrava tendência em aceitar o crescimento exponencial por diversos motivos, dentre eles: a) O tamanho das pastilhas estava crescendo numa taxa exponencial. Os chips estavam se tornando cada vez maiores. b) As dimensões dos componentes integrados estavam se tornando cada vez menores numa taxa que se aproximava da exponencial. c) Melhoria das tecnologias internas usadas na integração, como aumento da isolação, advento de novas tecnologias como MOS, etc. Com essa revisão, segundo Moore, a taxa de aumento da densidade de componentes deveria ser tal que dobraria a cada 18 meses ou quadruplicaria a cada 3 anos. Escrita na forma matemática ela fica: (Circuitos por Chip) = 2(ano-1975)/1,5 Em 1995, Moore fez uma comparação de suas previsões com duas categorias de dispositivos: memórias DRAM e Microprocessadores. Os dois dispositivos tiveram um crescimento bem próximo da curva prevista por Moore, com as DRAMs alcançando uma leve vantagem na quantidade de dispositivos integrados (densidade) no período que vai de 1970. 34 NEWTON C. BRAGA As observações tinham se baseado na evolução dos dispositivos semicondutores a partir de 1950 na sequência que levou a média escala de integração (MSI) dos anos 1960, para a larga escala de integração (LSI), dos anos 1970, e escala muito alta de integração (VLSI) dos anos 1980, e a Escala Ultra Alta de Integração (ULSI) dos anos 1990. Os chips com milhões de componentes integrados já são comuns e já fala em chips de gigabits e até terabits para as próximas décadas. Figura 7 - detalhe de um chip VLSI (Very Large Scale of Integration) contendo milhões de transistores BARÔMETRO TECNOLÓGICO Talvez a mais importante das implicações da Lei de Moore é o fato de que ela funciona como um verdadeiro barômetro tecnológico. Algumas publicações referem-se à Lei de Moore como "benchmark", padrão ou mesmo regra, mas definitivamente, podemos dizer que se trata de uma forma de se "medir" a tendência de inovações de desenvolvimento da indústria de semicondutores e, por tabela, dos computadores. Um alto executivo de empresa fabricante de semicondutores chegou a afirmar que a Lei de Moore: "é importante porque é a única regra estável que temos hoje para saber que os concorrentes vão fazer daqui a 18 meses e também 35 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 aquilo que também temos de fazer para não sucumbir à concorrência". Se levarmos em conta que o custo tanto é medido pelo tamanho como pela complexidade do chip, com a redução do tamanho temos a redução do custo e como resultado final, os chips vão se tornando cada vez mais acessíveis. Hoje, temos uma infinidade de aplicativos em que eles são usados, indo desde brinquedos, e aparelhos de uso doméstico, até equipamento médico, satélites e armas. Isso significa que a Lei de Moore também tem implicações sociais e econômicas que devem ser levadas em conta. Mas, além de possibilitar uma previsão do que vai acontecer no futuro, a Lei de Moore também serve como uma espécie de alavanca que propulsiona os novos desenvolvimentos, pois qualquer empresa sabe que, se não seguir suas tendências, ela será abandonada. Acompanhar a Lei de Moore, para as empresas desenvolvedoras e fabricantes de semicondutores, não é simplesmente uma curiosidade, para saber o que se deve fazer e o que os outros estão fazendo; é uma questão absoluta de sobrevivência. É importante notar que, além das variáveis físicas, existem as varáveis não físicas que podem estar envolvidas na validade da Lei de Moore. Veja que, a Lei de Moore, em si não é somente baseada nas propriedades físicas e químicas dos semicondutores assim como nos seus processos de produção, mas também em fatores não técnicos. Podemos colocar no rol desses fatores as influências dos sistemas sociais e econômicos, como já afirmamos. Podemos tomar como exemplo o que ocorre com os chips dos computadores pessoais, como por exemplo, os microprocessadores, sistema de software e memória. Enquanto os microprocessadores, a partir do 8086/8088 até o Pentium IV se tornaram mais rápidos, mais poderosos e proporcionalmente menos caros escapando levemente da previsão pela Lei de Moore, as memórias DRAM e suas formas derivadas, seguiram um padrão mais regular. Na figura 8 temos uma curva que mostra a evolução das características das DRAMs, quando comparadas com uma curva que mostra como deveria ser o crescimento se a sua capacidade dobrasse a cada 21 meses (valor inicialmente previsto para esse tipo de componente). 36 NEWTON C. BRAGA figura 8 - Legenda: curva de evolução das características das DRAMs. Na figura 9, por outro lado, temos a evolução do número de transistores nos chips. Figura 9 - curva de evolução dos transistores pode chip até o ano 2000. Entretanto, existe um terceiro elemento do custo de um PC, que é o software, e que revelou um comportamento não técnico para a Lei de Moore. 37 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 A IMPORTÂNCIA DOS COMPUTADORES Quando falamos na Lei de Moore para os computadores devemos incluir o software como elemento que pode influir na sua aplicação. Hoje em dia a maior parte do consumo de chips é representado pela indústria de computadores. Em segundo lugar vem a indústria de telecomunicações e depois todo o restante. Duas leis paralelas, que levam certo tom humorístico, relacionam o desenvolvimento dos chips com o desenvolvimento do software e são denominadas "Leis de Parkinson". Elas dizem que "O software expande para preencher a memória disponível, e o Software está se tornando mais lento na proporção direta que o hardware se torna mais rápido". Na verdade, alguns chegam até a dizer que todas as vezes que se aumenta a quantidade de transistores disponíveis no chip de um microprocessador, Bill Gates "arranja" um meio para seus softwares desperdiçá-los. Outros vão além de definem a "Lei de Gates (Bill)" que diz que a "velocidade dos softwares se reduz à metade a cada 18 meses". ATÉ QUANDO A LEI DE MOORE SERÁ VÁLIDA? Desde 1995 artigos diversos foram publicados, colocando em discussão se a Lei de Moore ainda valeria por muito tempo. Mas nenhum chega a uma conclusão definitiva sobre seu fim. Figura 10 - circuito básico de uma célula (bit) de uma DRAM) 38 NEWTON C. BRAGA Assim, no dia 10 de julho de 2002, Gordon Moore recebeu do Governo dos Estados Unidos, a medalha Freedon. O presidente Bush comandou a cerimônia. Naquela ocasião Moore afirmou que a velocidade com que a densidade dos componentes num chip dobra iria diminuir um pouco nos próximos anos, principalmente dadas as próprias limitações da física. A capacidade que os projetistas de semicondutores têm para integrar cada vez mais componentes num chip está limitada pelas leis da física que, começam a ter um efeito maior a cada dia. Pelos processos tradicionais de desenvolvimento de chips esperava-se que os projetistas teriam problemas quando as dimensões encolhessem para 30 nanômetros. No entanto, como falamos no início, sempre pode haver a interferência de novas descobertas ou de novas tecnologias que mudam as previsões. No caso, é a nanotecnologia que está entrando em cena. Moore lembra-se de ter dito que o limite para o encolhimento dos chips seria um mícron, dados os problemas da litografia óptica, isso em 1990. No entanto, com a nanotecnologia isso já não é válido e o próprio Moore já disse que espera ver dispositivos com diversos bilhões de transistores integrados. Uma descoberta importante que podeaumentar a vida da Lei de Moore, é a que se relaciona com o uso da luz ultravioleta extrema ou Extreme Ultraviolet (EUV) aplicada à litografia. As dimensões mínimas de um detalhe, que pode ter sua imagem gravada num chip de silício dependem também do comprimento de onda usado no processo. Se o objeto for menor que o comprimento de onda, a onda passa através dele sem deixar sombra. Assim, não se pode gravar num chip um transistor ou um detalhe de um componente cujas dimensões sejam menores do que o comprimento da onda da luz usada no processo. O limite atual estava justamente na capacidade dos equipamentos usarem radiação de comprimento de onda cada vez mais curto como, por exemplo, o ultravioleta. No entanto, com o progresso da tecnologia de semicondutores, até mesmo o ultravioleta está se tornando insuficiente para dar bons resultados com os detalhes menores que se pretendia gravar. 39 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Assim, o uso da tecnologia EUV (Extreme Ultraviolet) estende a validade da Lei de Moore, com a possibilidade de criação de dispositivos que estão além dos limites que o próprio Moore imaginava quando estabeleceu sua lei. Na figura 11 mostramos o processo de gravação de um chip usando a tecnologia do EUV. Figura 11 - Próxima geração de litografia usada na produção de chips que romperão a barreira de bilhões de componentes CONCLUSÃO A Lei de Moore, apesar de contestações, da colocação em jogo de seu tempo de validade, tem permanecido firme nas últimas décadas, apesar da aproximação teórica dos limites de integração dados pelas leis da física. A criação de novas tecnologias, vencendo barreiras colocadas pelas limitações físicas tem mantido a sua validade e importância. A principal importância da Lei de Moore se mantém, já que se trata de um dos poucos parâmetros confiáveis e estáveis que a indústria de semicondutores pode usar nas suas previsões. Como 40 NEWTON C. BRAGA afirmamos, a Lei de Moore é o barômetro que indica o que a indústria deve fazer nos anos seguintes e assim direcionar a criação dos seus produtos com boa chance de que eles não cheguem ao mercado defasados ou ainda utilizando tecnologias que já estejam superadas na época do lançamento. A Lei de Moore ainda vale. Por quanto tempo? Não sabemos, pois, nem mesmo Gordon Moore acreditava, de início, que sua Lei pudesse durar tanto… Há alguns anos a Lei de Moore começou a ser ameaçada pelo que parecia ser o limite para a miniaturização dos componentes que poderiam ser integrados num chip. A própria litografia por ultravioleta (UV) estava chegando a um ponto em que componentes menores e, portanto, em maior quantidade não poderiam mais ser gravados no silício. Da mesma forma o próprio tempo de trânsito dos portadores de carga nos materiais semicondutores começava a impor limites para o tamanho que um chip teria sem comprometer seu desempenho. No entanto, em 2011 algumas novas tecnologias apareceram dando mais certo tempo de fôlego para a Lei de Moore. Considerando que um componente como um transistor tem uma estrutura bidimensional no chip os limites para sua integração estavam basicamente determinados pelo que se poderia fazer nestas dimensões. Entretanto, uma parceria da IBM com a 3M possibilitou a criação de novos adesivos que seriam utilizados na construção de chips tridimensionais. Assim, em lugar de espalharmos os transistores por uma superfície, seria possível espalhar componentes por um volume. A ideia inicial é de que 100 chips separados formariam camadas que resultariam num chip único com 1000 vezes a velocidade do computador mais rápido que temos e uma quantidade 100 vezes maior de transistores. O gráfico da figura 12 mostra a situação da Lei de Moore em 2011 com a possibilidade de ela seguir a curva prevista aproximada por alguns anos ainda. 41 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 12 – Lei de Moore até 2011. Algumas outras leis apareceram nos últimos anos tentando fazer previsões sobre o futuro dos semicondutores, mas a que mais está tomando corpo é a que leva em consideração a eficiência de um microcontrolador ou microprocessador. De fato, para as aplicações modernas, muito mais do que a quantidade de transistores de um chip ou sua velocidade de operação, é o consumo de energia. A eficiência com que um conjunto muito grande de componentes aproveita a energia é hoje talvez um fator fundamental para a tecnologia. No gráfico da figura 13 temos então a evolução da eficiência dos chips dos computadores, numa curva bastante semelhante àquela dada pela Lei de Moore. 42 NEWTON C. BRAGA Figura 13 – A eficiência dos computadores desde sua criação. Algumas fontes publicaram em 2005 estudos que revelavam que a Lei de Moore valeria até 2015 a 2020. No entanto, uma atualização do International Roadmap for Semiconductors revelou que a curva de validade desta lei mudou um pouco, e as densidades dos transistores nos chips devem dobrar a cada 3 anos. Nota: quando revisamos este artigo para este livro, novas tecnologias já estavam em estudos, como a computação quântica que deve mudar tudo, até mesmo acelerando a lei de Moore de forma nunca antes imaginada. 43 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 COMPARADORES DE TENSÃO E DISCRIMINADORES DE JANELA Os amplificadores operacionais permitem o desenvolvimento de uma infinidade de aplicativos. Dentre eles focalizamos neste artigo os discriminadores de janela e os comparadores de tensão. Dentre as inúmeras aplicações para estes circuitos destacamos os controles industriais, termostatos, alarmes de temperatura ou luz e outros circuitos de precisão em que deva haver uma comutação rápida em um ou mais níveis de sinais de um sensor ou de um circuito de processamento. A base dos circuitos que analisamos é o 741 que, pelo seu baixo custo e versatilidade, permite a implementação fácil de qualquer projeto. O que se pode fazer com um amplificador operacional? Na verdade, não há limite para isso e tanto no caso da eletrônica para amadores como para profissionais, podemos encontrar uma infinidade de projetos. A maioria destes projetos leva por base o mais conhecido de todos os amplificadores operacionais que é o 741. Baseados também neste amplificador daremos neste artigo alguma teoria sobre os chamados comparadores de tensão e os discriminadores de janela, que são configurações com aplicações muito importantes tanto na eletrônica profissional como para amadores. Completaremos o artigo com alguns diagramas imediatos que, sem dúvida, poderão servir de base para projetos mais complexos. Iniciamos nossas explicações com a análise do próprio 741. OS AMPLIFICADORES OPERACIONAIS Na figura 1 temos o símbolo adotado para representar um amplificador operacional. 44 NEWTON C. BRAGA Figura 1 – Símbolo do amplificador operacional Conforme podemos ver, ele possui duas entradas: uma inversora, marcada com (-), e uma não inversora, marcada com (+). A saída é única e como elementos adicionais, temos os terminais de alimentação e, eventualmente, os de compensação externa e ajuste de corrente de fuga (offset). Se aplicarmos um sinal na entrada não inversora, ele será amplificada e aparecerá com a mesma fase na saída. Se o sinal for aplicado na entrada inversora, ele será amplificado e aparecerá na saída com a fase invertida. Na figura 2 mostramos o que ocorre com um sinal senoidal. Figura 2 - Amplificando um sinal senoidal O sinal também pode ser aplicado entre as entradas, o que significa que aplicamos uma tensão diferencial que será amplificadaem função de sua polaridade. Isso significa que ele amplifica a diferença de tensão entre as entradas. Se esta diferença for positiva temos uma saída positiva e se a diferença for negativa temos uma saída negativa (figura 3). 45 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 3 – Diferença positiva e negativa Um amplificador operacional ideal tem uma resistência de entrada infinita, um ganho de tensão infinito e uma resistência de saída nula. Na prática não chegamos a estes resultados: a impedância de entrada é alta, da ordem de M ohms, a impedância de saída é baixa, da ordem de dezenas de ohms, e o ganho pode variar entre 5 000 e 200 000 para os tipos mais comuns. Podemos controlar o ganho de um amplificador operacional através de uma realimentação negativa, conforme mostra a figura 4. Figura 4 – Controlando o ganho O 741 O 741 pode ser encontrado no comércio com designações que dependem do fabricante tais como LM741, MC1741, SN72741, uA741 etc., consistindo num amplificador operacional dos mais populares e versáteis. No nosso país ele pode ser encontrado com extrema facilidade, pois é importado por muitas empresas distribuidoras. 46 NEWTON C. BRAGA Na figura 5 temos o seu invólucro com a identificação dos terminais e o circuito interno equivalente. Figura 5 – O 741 As características deste integrado são: - Tensão máxima de alimentação (simétrica):18 - 0 -18 V - Potência máxima de dissipação: 670 mW - Tensão de offset de entrada (tip.): 0,8mV - Impedância de entrada (mín.): 1M ohms - Faixa de operação (tip.): 1 MHz - Ganho (tip.): 200 000 - CMRR (tip.): 95 dB - Resistência de saída: 75 ohms COMPARADORES DE TENSÃO Uma das aplicações interessantes para os amplificadores operacionais é o comparador de tensão. O primeiro tipo é mostrado na figura 6, vemos a seguir o seu de funcionamento. 47 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 6 – O comparador de tensão Fixamos na entrada não inversora a tensão de referência por meio de um diodo zener. No nosso caso, esta tensão é de 5,1 V dada por um zener de 400 mW. Assim, quando aplicamos uma tensão na entrada, o amplificador operacional a amplifica, comparando-a com a tensão de referência. Como o ganho do amplificador é muito alto, bastará que a diferença de tensão entre as duas entradas seja de alguns milivolts para que tenhamos na saída a saturação, ou seja, obtenhamos valores próximos de zero ou da tensão positiva de alimentação. Se então a tensão de entrada for menor que a tensão de referência, temos sua amplificação com inversão de fase, resultando assim numa tensão positiva próxima da tensão de alimentação. É o trecho 1 do gráfico mostrado na fig. 7 Figura 7 – Trecho do gráfico do comparador. No entanto, quando a tensão de entrada superar a tensão de referência, teremos uma diferença de valores positiva que, após a amplificação com a fase invertida, leva a saída à saturação, mas próximo do negativo da fonte, ou seja, 0 V. Temos então o trecho 2 da curva mostrada na mesma figura. Uma etapa de potência na saída deste circuito pode ser usada para excitar um relé de "sobre indicação". Quando a tensão 48 NEWTON C. BRAGA superasse certo valor determinado, ocorreria a comutação do relé. Veja que é o zener que fixa o ponto de transição em que a saída do amplificador operacional cai do máximo (saturação positiva) para o mínimo (saturação negativa). Outros valores podem ser usados e até mesmo um trimpot para a fixação manual da tensão. É claro que o zener tem como vantagem a precisão em que se pode estabelecer o ponto de transição da saída. Um comportamento oposto pode ser obtido com o circuito mostrado na figura 8. Figura 8 - Comportamento oposto O zener fixa a referência na entrada negativa. Assim, quando a tensão na entrada está abaixo da tensão de /referência, temos uma diferença negativa que será amplificada e saturará em perto de 0 V a saída. Quando a tensão de entrada ultrapassar o valor de referência, teremos a saturação no valor positivo mais próximo da tensão de alimentação. A curva da figura 9 mostra o que ocorre. Este circuito pode ser usado para levar um nível 1 a uma entrada lógica, ou a um circuito indicador, quando a tensão de entrada ultrapassar um valor determinado. 49 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 9 – Comportamento do circuito DISCRIMINADORES DE JANELA Combinando os dois circuitos comparadores de tensão podemos elaborar uma configuração bastante interessante que é o chamado discriminador de janela. Ele recebe esta denominação porque deixa passar apenas uma estreita janela de valores de tensão que são fixados pelos elementos de referência. Assim, para o circuito da figura 10, a janela vai de 5,1 a 6,2V, quando então a saída vai à saturação perto de zero. Para quaisquer outros valores da tensão de entrada, a tensão de saída estará próxima da tensão de alimentação. Os diodos D1 e D2 fixam os limites ou a “largura" da janela de tensão. A curva correspondente é mostrada na figura 11. 50 NEWTON C. BRAGA Figura 10 – Comparador de janela Figura 11 – Curva do comparador 51 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Um comportamento inverso pode ser obtido com o circuito da figura 12. Figura 12 – Comportamento inverso Para este circuito, temos a saída de tensão positiva quando a entrada estiver dentro dos valores fixados pelos diodos zener. A curva correspondente é mostrada na figura 13. 52 NEWTON C. BRAGA Figura 13 – Curva obtida O funcionamento destes circuitos é simples: o primeiro comparador mantém a tensão em nível alto na saída até o ponto em que a entrada supera a referência, quando então ela cai a zero. A tensão de saída se manterá em zero até que o segundo comparador entre em ação. Neste momento, sua saída se eleva ao nível alto, assim permanecendo para qualquer valor superior à referência. Podemos fixar a “janela" para qualquer largura dentro da faixa de alimentação dos integrados simplesmente escolhendo os diodos zener apropriados. A impedância de entrada do circuito é de10 k ohms, o que possibilita a operação direta com diversos tipos de transdutores. Na figura 14 damos dois circuitos de ativação de relés. 53 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Figura 14 – Acionamento de relés O primeiro dos circuitos ativa o relé com os níveis altos de tensão, ao mesmo tempo em que o segundo circuito ativa o relé com níveis baixos de tensão. Observe que uma característica importante destes circuitos é a não necessidade de fontes simétricas para os amplificadores operacionais. O consumo de corrente é bastante pequeno para cada circuito, ficando no caso mais de 90% da corrente para o acionamento do próprio relé. 54 NEWTON C. BRAGA A TECNOLOGIA DO CIRCUITO INTEGRADO No artigo em que focalizamos a Lei de Moore, ficou claro que toda a tecnologia moderna dos semicondutores está ligada a dois fatores: o tamanho dos elementos que podem ser integrados num chip e a sua quantidade máxima. Para entender como as especificações tão comuns hoje de tecnologia de “tantos mícrons”, usadas para indicar o processo de fabricação de chips, funcionam é interessante fazermos uma breve revisão do modo como são fabricados os circuitos integrados, ou seja, as tecnologias usadas nos circuitos integrados. Este artigo é de 2001. Novas tecnologias foram desenvolvidas possibilitando cada vez a integração cada vez maior de componentes num chip. VOLTANDO UM POUCO NO TEMPO Até 1950, qualquer equipamento eletrônico era formado por componentes individuais (discretos) que deveriam ser fabricados separadamente, cada qual com seuprocesso específico, e depois montados e interligados numa placa ou chassi comum para formar o circuito desejado. Tudo isso mudou com a invenção do circuito integrado por John Kilby em 1950, conforme narramos no artigo anterior. A ideia básica de Kilby era de que em lugar de fabricarmos os componentes de um circuito separadamente, para depois interligá-los formando o circuito desejado, poderíamos usar um processo único para fabricar todos os componentes interligados sobre uma pastilha de silício, já formando o circuito desejado. A ideia floresceu, e os "circuitos integrados" começaram a aparecer. 55 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Partindo dos tipos mais simples, e evolução das tecnologias foi possibilitando a colocação de cada vez maior número de elementos numa pastilha de silício e a redução cada vez mais acentuada das dimensões desses componentes. A evolução das tecnologias eletrônicas foi justamente associada à própria evolução do circuito integrado, conforme vimos ao analisarmos a Lei de Moore. Assim, quando falamos de eletrônica moderna e pretendemos fazer qualquer tipo de previsão o futuro, analisando que tipos de novos dispositivos podem aparecer, devemos sempre estar levando em conta as tecnologias de fabricação dos circuitos integrados. Dependem justamente dessas tecnologias os novos dispositivos que podem ser criados e a quantidade de componentes que podem ser integrados num único chip. Para especificar o grau de elaboração de um CI é comum a utilização de dois parâmetros importantes que, na realidade, são interdependentes: a quantidade de componentes que podem ser integrados nos chips e as dimensões mínimas dos detalhes que esses componentes podem ter. 56 NEWTON C. BRAGA Para entendermos como isso funciona, vamos fazer uma breve revisão dos processos de fabricação dos circuitos integrados. FABRICANDO UM CIRCUITO INTEGRADO O processo de fabricação de um circuito integrado envolve basicamente 5 etapas. O ponto de partida para a fabricação dos circuitos integrados (assim como de outros dispositivos semicondutores como transistores e diodos) é o wafer. Trata-se de um disco de silício cristalino extremamente puro com uma espessura de poucos milímetros. O diâmetro dos wafers varia de acordo com a tecnologia usada podendo partir de 100 mm (4 polegadas) e indo até 300 mm (12 polegadas). Num cristal, como o que forma os wafers, os átomos são organizados com uma orientação bem definida. Essa orientação precisa ser levada em conta no processo de fabricação. Assim, para os wafers de 100, 125 e 300 mm, é feito um corte que serve para indicar o modo como o cristal está orientado. Nos wafers de 200 e 300 mm a marca consiste num pequeno rasgo, conforme mostra a figura 2. 57 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Basicamente existem três tipos de wafers: tipo puro que é usado para a fabricação de CIs, Epitaxial (Epi) que é um wafer formado por um cristal único com um filme depositado na sua superfície e Silicon on Insulator (SOI) que consiste num filme de cristal silício depositado num filme isolante sobre o wafer que serve de base. Quando se analisa as tecnologias usadas na fabricação de circuitos integrados, as dimensões dos elementos são extremamente pequenas. Com frequência estaremos falando de mícron, nanômetros e dimensões até menores. Será importante que o leitor tenha uma ideia dessas dimensões através da tabela seguinte: Unidade Símbolo Valor comparativo Metro M - Milímetro Mm mil milímetros resultam em um metro Micrometro ou mícron Μm um milhão de mícron equivale um metro; mil mícron equivale um milímetro Nanômetro Nm um bilhão de nanômetros equivale a um metro; mil nanômetros equivalem a um micrometro Uma ideia aproximada das dimensões de objetos conhecidos pode ajudar o leitor entender quão pequenos podem ser os componentes eletrônicos modernos. A tabela seguinte mostra algumas dimensões: Objeto Tamanho Aproximado Grão de areia 100 a 1000 μm Diâmetro de um fio de cabelo 30 a 200 μm Bactéria 1 a 30 μm Partícula de fumaça de cigarro 10 nm a 1 μm Vírus 3 a 40 nm Átomos 0,2 a 0,3 nm O menor processo de fabricação usado atualmente para os circuitos integrados consegue gravar detalhes de 130 nm (0,13 mícron). No entanto, alguns processos em estudos chegam a 70 nm (0,07 mícron). Podemos dizer que um detalhe com essa ordem de tamanho está bem próximo ao de um vírus grande e é bem menor que uma bactéria! O passo seguinte é alterar as propriedades de regiões específicas do wafer de modo que se formem os componentes desejados e as trilhas de conexão entre eles. 58 NEWTON C. BRAGA Esse processo envolve o uso da Fotolitografia. Na fotolitografia, uma substância química sensível à luz, denominada "photoresist" é espalhada pela superfície do wafer, cobrindo-a na extensão em que se deseja gravar os componentes. O processo de espalhar essa substância é feito de forma rápida e controlada de modo a se formar um filme uniforme muito fino. Na figura 4 mostramos como isso é conseguido girando-se rapidamente o wafer. 59 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 Depois disso, o wafer passa por um processo de cozimento num forno, depois disso ele exposto à radiação ultravioleta através de uma máscara que possui regiões opacas e transparentes, formando justamente o desenho dos componentes que devem ser gravados. O uso da radiação ultravioleta é importante, como vimos no artigo sobre a Lei de More, porque seu menor comprimento de onda permite que detalhes com menores dimensões sejam gravados. Depois de ser exposto à radiação, o wafer passa por um processo de revelação onde as áreas expostas são removidas e as cobertas permanecem. Diversas variações desse processo podem ocorrer nesse ponto da fabricação, mas o importante é que com a revelação, áreas condutoras e isolantes são gravadas no padrão que vai corresponder ao circuito integrado, conforme mostra a figura 5. 60 NEWTON C. BRAGA Figura 5 - As etapas do processo de fotolitografia De uma forma mais detalhada, podemos dividir o processo de fotolitografia em seis fases: Cobrir o wafer com uma substância que facilite a adesão do photoresist Cobrir o wafer com um líquido foto-sensível (photoresist). Cozer o wafer para secar o photoresist Expor o wafer a radiação ultravioleta através de uma máscara em que o padrão a ser gravado esteja presente. Cozer novamente - alguns tipos de photoresist exigem que após a exposição à radiação haja um cozimento para completar as reações químicas que ocorrem. Revelar o photoresist removendo deixando expostas as áreas que devem ter suas propriedades elétricas alteradas, ou seja, onde devem ser formados componentes. Recozer o photoresist para estabilizar suas propriedades químicas A fase seguinte no processo de fabricação é a implantação de íons. O que cada região sensibilizada vai ser depende das propriedades elétricas que ela vai adquirir. No caso dos semicondutores, isso significa dopar essa região de modo que ela se torne um semicondutor N, P ou mesmo deixá-la sem dopagem 61 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 para que ela se torne um fio ou uma interligação de componente e até mesmo a armadura de um capacitor. Essa implantação é feita numa câmara de vácuo. O wafer é ligado a um eletrodo e os íons a serem implantados são acelerados pela tensão do wafer de modo a penetrarem na profundidade desejada, difundindo-se pelo material. Um ponto importante no processo de fabricação está justamente na possibilidade de se fazer os íons penetrarem exatamente na profundidade desejada e no controle exato da quantidadedeles. As impurezas implantadas nesse processo não penetram mais do que uns poucos mícrons de profundidade no wafer. Continuando com o processo de fabricação, além da implantação de íons, diversas substâncias são depositadas na superfície do wafer formando filmes muito finos. Esses filmes, como nitreto de silício, são usados para preservar a camada protegendo-a no final do processo de fabricação. Polisilicon é uma outra substância usada para fabricação de transistores de MOSFETs. Metais como alumínio e cobre também podem ser depositados para formar interligações entre elementos do circuito. Meios químicos ou físicos são usados para depositar o metal, dependendo da tecnologia e do tipo de componente que está sendo fabricado. Finalmente, o wafer passa por um banho químico. Diversas tecnologias que vão do simples uso de líquidos até plasma foram desenvolvidas, conforme o tipo de circuito integrado que está sendo fabricado. Uma forma de banho é feita a seco com o uso de ondas de rádio, microondas de alta energia aplicadas a um gás de modo a torná-lo reativo. Gases que podem ser ionizados resultando em íons de cloro, bromo e flúor são usados em alguns processos. No final de todas essas etapas, num único wafer podem ser formados muitos circuitos integrados. A quantidade depende justamente das dimensões de cada. Num wafer comum podem ser fabricados mais de 200 circuitos integrados de uma vez. Evidentemente, a presença de impurezas no próprio material, falhas do processo, fazem que nem todos sejam aproveitados. Assim, antes de se passar ao corte e encapsulamento de cada um dos circuitos integrados, eles passam por um teste de funcionamento. 62 NEWTON C. BRAGA O resultado está na figura 6 em que o pequeno chip de silício resultante é soldado aos terminais de ligação e encerrado num invólucro que, ao mesmo tempo que o protege contra a ação dos elementos externos, também serve para dissipar ou transferir o calor gerado no seu processo de funcionamento. CONCLUSÃO As tecnologias de fabricação dos circuitos integrados têm evoluído no sentido de se poder gravar cada vez detalhes menores nas pastilhas de silício e assim aumentar a densidade dos componentes que podem ser integrados. Essa capacidade é especificada nas tecnologias existentes e normalmente expressa na forma da medida do menor detalhe que pode ser integrado com definição. Assim, para a DRAM e para os microprocessadores que representam os componentes que encabeçam toda a eletrônica dos circuitos integrados, passamos de uma escala de integração 63 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 de 100 mícron em 1970 para menos de 0,18 mícron em nossos dias. Na figura 7 temos o gráfico que mostra essa evolução das tecnologias de integração. Conforme já salientamos, saltos tecnológicos podem transpor determinados obstáculos determinados pelas leis da física, como por exemplo, a relação entre o comprimento de onda da radiação usada no processo de litografia e o menor objeto que pode ser integrado. O uso de radiação ultravioleta de comprimentos de onda cada vez menor pode nos levar a tecnologias muito menores do que as dos 0,07 mícron previstas para os próximos anos, com uma capacidade de integração de componentes que poderá facilmente superar a escala dos terabits para as memórias. O que precisamos aprender é que mesmo que as leis da física sejam válidas, nunca podemos dar como definitiva qualquer conclusão que chegamos, pois saltos tecnológicos e descobertas não previstas podem mudar tudo. 64 NEWTON C. BRAGA GERAÇÃO DE CALOR NOS CIRCUITOS ELETRÔNICOS E A LEI DE JOULE Este importante artigo, que envolve mais física do que eletrônica, é parte do livro Curso de Eletrônica – Eletrônica de Potência. O artigo é uma preparação para análise do funcionamento dos dissipadores de calor. Nele analisamos como o calor é gerado nos circuitos eletrônicos e como pode ser calculado através da aplicação da Lei de Joule. Os artigos seguintes complementam o que discutimos aqui. Nem sempre os dissipadores de calor são olhados com o devido cuidado nos projetos que envolvem dispositivos de potência e mesmo aqueles que, aparentemente, não geram uma quantidade preocupante de calor. No entanto, os problemas relacionados com a dissipação de calor são muito mais importantes do que muitos pensam, e por não estarem relacionados com o circuito em si, nem sempre são devidamente tratados pelos desenvolvedores. GERAÇÃO DE CALOR A maioria dos componentes eletrônicos converte energia elétrica em calor, em maior ou menor quantidade, dependendo de suas características ou regime de operação. Se este calor não for convenientemente transferido para o meio ambiente, o componente se aquece além dos limites previstos e com isso pode "queimar". Os radiadores ou dissipadores de calor são os elementos que ajudam a fazer esta transferência, sendo por isso, de enorme importância nas montagens eletrônicas. Vamos analisar sua função. Quando uma corrente elétrica deve vencer uma resistência para sua circulação, ou seja, encontra uma oposição, o resultado do "esforço" de sua passagem é a produção de calor. Energia elétrica se converte em calor e isso é válido para a maioria dos componentes eletrônicos comuns. O calor liberado neste processo tende a aquecer o componente e em consequência da diferença de temperatura que 65 Como Funciona - Aparelhos, Circuitos e Componentes Eletrônicos – Volume 9 se estabelece entre ele e o meio ambiente, tem início a uma transferência de calor para esse meio ambiente, conforme mostra a figura 1. Figura 1 – Como o calor gerado é eliminado, no caso de um resistor A diferença de temperatura entre o componente e o meio ambiente determina a velocidade com que o calor gerado é transferido. Assim, chega o instante em que o calor gerado e o transferido se igualam quando então a temperatura do corpo que o gera se estabiliza. A transferência do calor gerado para o meio ambiente depende de diversos fatores como a superfície de contato do componente com o meio ambiente, a capacidade que ele tem de conduzir o calor do ponto em que ele é gerado até o ponto de contato com o meio ambiente e finalmente a diferença de temperatura entre esses dois pontos. Podemos comparar a diferença de temperatura entre o ponto em que o calor é gerado (componente) e o meio ambiente (ar que o circunda) como a diferença de potencial elétrico entre os dois pontos. O fluxo de calor entre os dois pontos é feito por um percurso de modo semelhante a uma corrente. Assim, temos um circuito "térmico" em que existe uma "resistência" que deve ser vencida pelo calor para chegar ao meio ambiente. Se a resistência for elevada, ou seja, houver dificuldades para o calor gerado numa pastilha de um componente, por exemplo, um transistor ou um circuito integrado, chegar até o meio ambiente, sua temperatura se eleva, pois deve haver "maior tensão" para o calor sair, vencendo a oposição encontrada. 66 NEWTON C. BRAGA Veja que, com o aumento da "tensão" que no caso é a temperatura, temos maior "pressão" e com isso aumenta o fluxo de calor, de modo que chega um instante em que ocorre o equilíbrio da situação: a quantidade de calor gerado é igual à quantidade de calor transferido para o meio ambiente. Figura 2 – No equilíbrio térmico o fluxo de calor para o meio ambiente se iguala à quantidade de calor gerado Em eletrônica, devemos cuidar para que isso ocorra numa temperatura que não comprometa a integridade do componente. Por exemplo, o silício usado na maioria dos dispositivos semicondutores como diodos, transistores e circuitos integrados não pode se aquecer a uma temperatura maior que 125 graus centígrados, chegando em alguns casos a 150º C. A maioria dos componentes