domingo, 17 de novembro de 2019

A importância de alimentar corretamente o seu transmissor

Alguns poucos volts à menos pode representar perdas significativas de potência, enquanto alguns volts à mais pode colocar seu equipamento em risco.

Isto pode ocorrer porque a potência não é simplesmente proporcional a tensão, ela é proporcional ao quadrado da tensão. Significa  que, se dobrarmos a tensão num circuito resistivo, a potência será quadruplicada. Por outro lado, reduzindo-se a tensão à metade, a potência ficará reduzida à metade duas vezes, ou à metade da metade, que é um quarto da potência original.

Analisemos a expressão da potência em função da tensão para vermos o que ocorre:

P = E x I

Temos no caso, pela Lei de Ohm, que I pode ser dado por E / R, de onde tiramos a relação:

P = E x E / R 
P = E2 / R

Tomando como exemplo um circuito resistivo de 19,04 ohms, teremos:



Note que, com uma alimentação de 12 volts, teríamos uma potência de 7,56 watts e, com uma alimentação de 24 volts, teríamos uma potência de 30,25 watts, ou seja, quatro vezes maior.

Se, neste exemplo, a alimentação correta fosse 13,8 volts teríamos 10 watts. Note que em uma variação de 12 para 13,8 volts, temos uma variação de potência de 2,44 watts, o que é muito significativo em se tratando de baixa potência.


PY2GFA - Silvio C. Artusi


Os tipos de modulação

Normalmente, o sinal a ser modulado em qualquer sistema de transmissão interfere em algum parâmetro de um sinal de frequência bem mais alta, conhecido como sinal da portadora. O sinal que faz com que algum parâmetro da portadora varie é conhecido como sinal modulante, ou simplesmente a informação. O sinal da portadora é geralmente uma senóide e a informação interfere nos seguintes parâmetros: nível, frequência e fase da portadora. Outros tipos de modulação podem ser aplicados a sinais especiais, por exemplo, a modulação em largura e posição de pulso.



Já que existem vários tipos de modulação, cada um deles foi abreviado e em toda a literatura técnica esses termos aparecem constantemente.

CW  — "Continuous Wave" (Modulação de Onda contínua) - consiste de um sistema de radiofrequência de frequência fixa, sem modulação. O chaveamento de um sinal telegráfico também é conhecido como CW.

ASK — "Amplitude Shift Keying" - modulação de uma informação digital pela mudança da amplitude da portadora.

AM — Modulação em amplitude - modulação em amplitude em duas bandas e com portadora, para distinguir das variações desse tipo de modulação (DSBSC, SSB, etc.).

DSBSC —  Modulação em amplitude em banda dupla e sem portadora - consiste de um sinal modulado em AM mas filtrado na frequência da portadora, para suprimi-la.

SSB — Modulação AM de banda única - consiste num sinal modulado em AM com filtros na portadora e em uma das bandas.

VSB — Vestigial Side Band - consiste de um sinal AM com uma das bandas e a portadora parcialmente removidos pela filtragem.

FM — Frequência modulada - consiste de um sinal cuja frequência varia conforme a informação.

NBFM — Modulação de FM de faixa estreita - sinal modulado em FM mas com desvio em frequência menor do que o FM normal.

PM — Modulação de fase - resulta quando o desvio de fase da portadora é proporcional ao sinal da informação.

FSK — "Frequency Shift Keying" - consiste de um sinal modulado em frequência por uma informação digital (binária).

PSK — "Phase Shift Keying" - consiste de um sinal modulado em fase por uma informação digital (binária).

PAM — Modulação em amplitude de pulsos - resulta da variação do nível de uma série de pulsos de acordo com o sinal da informação.

PWN — Modulação em largura de pulso - resulta da variação do tempo de duração dos pulsos de acordo com o sinal da informação.

PPM — Modulação em posição de pulso - resulta quando o sinal modulante varia a posição de um pulso em relação ao suposto sinal pulsado não modulado.

PCM — Modulação codificada de pulsos - consiste de uma série de palavras binárias correspondentes à amplitude do sinal da informação.

DPCM — Modulação codificada de pulsos diferencial - é uma modificação do PCM na qual a taxa de variação de amplitude em relação ao tempo também é codificada numa palavra binária.

sábado, 16 de novembro de 2019

As especificações dos equipamentos da Faixa do Cidadão

Se você é um operador da faixa do cidadão, e não tem especialização em eletrônica ou telecomunicações, é bem provável que encontre dificuldades em interpretar os dados técnicos do catálogo do seu equipamento. Por outro lado, se você já tem experiência no assunto, um sumário de especificações técnicas pode lhe ser de grande utilidade. Dividimos, assim, o tranceptor da faixa do cidadão em duas partes, que serão analisadas separadamente.




Especificações da seção receptora


Sensibilidade do receptor é um parâmetro que expressa dois fatores distintos: primeiramente, a mínima potência de sinal a que o receptor vai responder, medida em microvolts (µV); em segundo lugar a razão sinal/ruído gerada pelos circuitos do aparelho. Se esse ruído interno for suficientemente elevado, vai mascarar o sinal, tornando impossível a recepção.

Desse modo, se, por um lado, é importante que se tenha um baixo valor de sensibilidade (o que significa uma alta sensibilidade do receptor), é também importante que a relação sinal/ruído (S/R), ou sinal + ruído/ruído [(S + R)/R)], seja a mais elevada possível.

Esses dois fatores, combinados, podem lhe informar sobre o valor da sensibilidade utilizável de seu aparelho. A relação S/R é expressa em decibéis e a referência mais comum é 10 dB (ou seja, o sinal é 3,2 vezes mais forte que o ruído).

Associações oficiais e órgãos governamentais americanos estabeleceram certos requisitos mínimos para o desempenho do equipamento da faixa do cidadão. Dessa forma, pode-se considerar que os equipamentos que obedecem ou ultrapassam esse mínimo são os melhores.

No caso da sensibilidade, o padrão para um receptor AM, é de 1 µV para 10 dB de (S + R)R, utilizando-se uma frequência de 1000 Hz para modular a portadora em 30%. Não é raro encontrar-se tranceptores com uma sensibilidade de 0,5 µV, ou menos. Como tal valor costuma variar de acordo com a tolerância dos componentes, muitos fabricantes especificam um valor para o "pior caso" e adicionam depois os termos "ou menos" ou "pelo menos".

A sensibilidade de um receptor SSB é medida ao se aplicar um sinal não modulado à entrada do receptor. A frequência desse sinal de teste é ajustada para produzir 1000 Hz na saída do receptor. O nível é então ajustado, de modo a produzir a desejada relação entre a saída do receptor e o ruído na ausência de sinal, nos terminais de saída. O padrão para SSB, em sensibilidade, é de 0,5 µV, para uma relação de 10 dB de (S + R)/R. Os valores normalmente encontrados situam-se na faixa de 0,1 a 0,25 µV, para o mesmo valor de (S + R)/R. Algumas vezes, aparece a especificação "sensibilidade utilizável", cujo valor representa o mínimo sinal de entrada necessário para que o receptor entregue a metade de sua saída de áudio, a uma dada relação (S + R)/R.

A seletividade é uma outra característica importante e expressa a habilidade do receptor em diferenciar entre um canal adjacente e aquele em que está sintonizado. É conhecida, também, como rejeição de canal adjacente, e é especificada em decibéis. Esse parâmetro mostra, em outras palavras, o nível necessário do sinal de um canal adjacente (afastado de 10 kHz, na faixa do cidadão) que possa interferir com a recepção do canal sintonizado.

Algumas vezes, a seletividade é especificada como "banda passante de FI" (frequência intermediária), que é a largura da "janela" pela qual o receptor "enxerga", de modo a detectar sinais de uma certa amplitude.

A figura 1 mostra uma típica resposta de FI, com uma banda passante de 6 kHz (+/- 3 kHz), para sinais 6 dB abaixo da resposta máxima (pontos A e C), e uma de 20 kHz (+/- 10 kHz), para sinais 40 dB abaixo daquele mesmo ponto (pontos D e G).

Figura 1 - Curva de seletividade de FI de um receptor AM, com uma banda passante de
6 kHz, a -6 kHz, e de 20 kHz, a - 40 dB. O sinal é sintonizado no centro, em "B".
A área sombreada pode ser ocupada por 10 kHz do canal adjacente, modulado em 2 kHz.
Os componentes da banda lateral inferior estarão a -35 e -30 dB (pontos F e E). Os
componentes da banda lateral superior são também atenuados (pontos H e I).

A resposta de  audiofrequência de um receptor pode ser obtida, por aproximação, dividindo-se por 2 a banda passante entre os pontos A e C (6 dB); uma resposta de 2 a 3 kHz é considerada ótima. A habilidade em rejeitar sinais de canais adjacentes pode ser estimada ao se fazer a mesma coisa com a banda passante a 40 dB abaixo; assim, em nosso exemplo, temos que o sinal do canal contíguo deveria estar 40 dB acima (ou ser 100 vezes mais forte) do sinal desejado, para que ambos pareçam ter a mesma intensidade, na saída do receptor.

A seletividade depende não apenas da banda passante de FI, mas também da característica de "dessensibilização" do receptor, que indica quando o sinal desejado parece estar deformado por um sinal adjacente. Os padrões determinam um valor mínimo de 30 dB para tal característica e nos equipamentos comerciais, ela oscila entre 30 e 50 dB.

Rejeição de sinais espúrios - Sendo expressa em decibéis, indica a capacidade do receptor em diferenciar entre um sinal desejado e algum outro, que não seja do canal adjacente. A razão de rejeição deve ser a mais alta possível, não importando a proveniência do sinal espúrio. Isto quer dizer que o aparelho deve responder apenas à estação na qual está sintonizado.

Os padrões de rejeição de sinais espúrios estabelecem um mínimo de 25 dB, em AM, e de 35 dB, em SSB.

Sensibilidade do limiar do "squelch" - Indica a potência do sinal em que o "squelch" pode ser ajustado para ativar a seção de áudio do receptor e, ao mesmo tempo, eliminar o ruído de fundo, na ausência de sinal. A máxima sensibilidade permite que o receptor elimine ruídos, sem a perda de sinais fracos. "Squelch máximo" (tight squelch) é o máximo ponto de potência de sinal para o qual o "squelch" pode ser ajustado.

Os padrões máximos para sensibilidade do "squelch" são de 1 µV em AM, e 0,5 µV em SSB. O "squelch" máximo ideal localiza-se entre 30 e 100 µV.

Figura de mérito do controle automático de ganho (CAG) - Indica a mudança ocorrida na saída de áudio, com uma certa variação na entrada de RF, especificada em decibéis. Um bom CAG possuí uma baixa figura de mérito (0 dB, idealmente) e, na prática, ele minimiza a necessidade de se ajustar o controle de volume, de forma a se reduzir a interferência de estações potentes.

Os padrões mínimos obrigam os tranceptores a exibir uma variação de 30 dB no áudio, para uma variação de 94 dB na entrada de RF, entre 1 e 50000 µV, Em SSB, uma variação de 16 dB na saída de áudio, no máximo, é permitida, para uma variação de 100 dB na entrada de RF, entre 0,5 e 50000 µV.

Saída de audiofrequência - É a máxima potência de saída no receptor, a um certo nível de distorção. Geralmente, é medida com uma frequência de 1000 Hz, sobre uma impedância determinada (normalmente 8 ohms). Os padrões estabelecem um nível de 2 W, a uma distorção não maior que 10%.

A gama típica de potências localiza-se entre 1,5 e 4 W, com distorções iguais ou menores que 10%. Em locais "silenciosos", 1 watt de saída é suficiente para uma boa comunicação, enquanto potências maiores são necessárias, em centros mais ruidosos.

Resposta de audiofrequência - Indica a uniformidade da saída de áudio ao longo da faixa de frequências moduladoras (ou seja, a faixa de frequências da voz humana). Esse parâmetro está padronizado numa faixa de 300 a 3000 Hz, para uma frequência de 1000 Hz, entre -14 e +2 dB, para AM. Para SSB, os padrões estabelecem uma banda passante de 2100 Hz, entre +3 e -6dB.

Figura de mérito do limitador de ruído - Mostra a eficiência de supressão de ruídos enquanto se está recebendo um sinal. É especificada em decibéis, relacionando o grau de supressão com uma certa relação sinal/ruído. O desempenho do limitador foi padronizado em 10 dB, para ruídos de curta duração, tais como interferência gerada por ignições de automóveis. Os ruídos ocasionados por geradores, linhas de força e outras fontes semelhantes, não serão, necessariamente, atenuados com a mesma eficiência.

Especificações da seção transmissora


A primeira coisa a observar, na ocasião da compra de um tranceptor da faixa do cidadão, é a potência RF de saída de sua porção transmissora. Em um transmissor de AM, esse parâmetro representa o nível da portadora sobre a carga nominal do mesmo. À modulação plena, a potência de pico é igual a quatro vezes a portadora, mas apenas uma pequena parcela é responsável pela potência útil de fala. Os limites legais estabelecem que a saída da portadora não ultrapasse 7 W, com equipamentos alimentados com 110 VCA ou 13,8 VCC.

Em SSB, não existe portadora na qual basear um nível de potência. Assim, nesse caso utiliza-se uma quantidade denominada "potência de pico da envoltória" (Peak Envelope Power - PEP) como referência, que representa a potência de saída no pico da forma de onda modulada. De acordo com legislações recentes, a máxima saída PEP permitida é agora de 12 watts. Em contraste às transmissões em AM, toda a potência de saída em SSB é potência útil de fala.

Porcentagem de modulação em AM - Descreve o nível de modulação da portadora, sendo o valor ótimo o de 100%. Muitos equipamentos chegam a exibir uma porcentagem entre 90 e 100%.

Na figura 2, vê-se o aspecto das envoltórias de RF, com vários níveis de modulação. Alguns dos parâmetros seguintes baseiam-se nesses desenhos.

Figura 2 - Envoltórias de RF de um transmissor AM: (A) não modulada; (B) modulação de 50%;
(C) 100% de modulação. Os efeitos de ceifamento (D) e sobremodulação (E) ocasionam
interferências entre estações.


Distorção harmônica em AM - Descreve a qualidade do sinal modulado a um certo nível de modulação. Foi especificado que a distorção não deve ultrapassar os 10%, quando a portadora for modulada a 80%, por uma frequência de 1000 Hz. Os valores típicos, em equipamentos comerciais, encaixam-se entre os 7 e 10% de distorção, com uma modulação de 90% a 100%. Os níveis de distorção podem ser elevados, devido à sobremodulação.

Espectro de modulação do transmissor AM - Ilustra o espectro de frequências ocupado pelo sinal modulado, e é uma medida importante, apesar de pouco mencionada, pois especifica as interferências de estações em outros canais. Essa interferência é causada por sobremodulação, que dá origem a uma grande quantidade de componentes espúrios, ou ainda por ceifamento. Os componentes de modulação "distanciados" de 4 a 8 kHz da portadora devem estar 25 dB abaixo, pelo menos, do nível da portadora não modulada; aqueles componentes que estão de 8 a 10 kHz de distância, devem ficar 35 dB abaixo; e aqueles além dos 20 kHz, 50 dB abaixo.

Componentes da distorção por intermodulação em SSB - Indica se o sinal se estende além da banda passante normal. Os componentes dessa distorção, causados por imperfeições do transmissor ou sobremodulação, podem originar interferências nos canais e também deteriorar a supressão da banda lateral não desejada. As especificações padronizadas determinam que os componentes distantes de 2 a 6 kHz do centro do canal devem estar 25 dB abaixo da potência de saída; os componentes afastados de 6 a 10 kHz devem estar 35 dB abaixo da potência média.

Supressão da portadora - Diz quanto a portadora é atenuada, abaixo de um nível de referência de saída. Ficou estabelecido o valor de 40 dB abaixo das frequências de teste, em AM, e 46 dB abaixo da saída dada em PEP. Normalmente, a portadora estará de 40 a 50 dB abaixo da saída PEP.

Resposta de audiofrequência no transmissor - A definição, aqui, é similar àquela fornecida para a resposta de audiofrequência no receptor.

Emissões espúrias - Indica a potência de outros sinais transmitidos, fora da banda passante normal. Isto está relacionado, principalmente, com as harmônicas de RF, uma das maiores causas de interferências em outros equipamentos (televisão, por exemplo). De acordo com regulamentos baixados por órgãos governamentais americanos, quaisquer emissões espúrias afastadas 20 kHz, ou mais, do centro da faixa permitida devem estar a 45 dB abaixo, aproximadamente, da potência média de saída. Para as emissões em SSB, a frequência limite é de 10 kHz.

Estabilidade de frequência - Limita a frequência de saída dentro de uma certa faixa, em torno do valor nominal. A tolerância legal para a estabilidade de frequência é de 0,005% da frequência nominal do canal, ou seja, 1350 Hz, na faixa do cidadão. Esses valores devem ser mantidos por uma extensa faixa de tensões de alimentação e temperaturas (de - 30 a + 50ºC).

sexta-feira, 15 de novembro de 2019

Distorção Harmônica em Alto-falantes

Um certo tipo de de distorção produzido pelos sistemas de alto-falantes caracteriza-se pela geração de harmônicos, quando os mesmos estão reproduzindo um único tom, durante algum tempo. Este artigo traz alguns esclarecimentos sobre esse tipo de distorção, efetuando, inclusive, um teste, utilizando três frequências puras, relacionadas com a escala musical.




Se um sinal enviado a um alto-falante, formado apenas por um tom perfeitamente puro, é reproduzido com harmônicas adicionadas a ele, está ocorrendo distorção harmônica. Como estamos nos referindo a um tom simples, os componentes da distorção serão compostos pelas harmônicas dessa frequência fundamental.

Sabemos que os audiófilos, em geral, são mais afeitos a tons da escala musical, no que se refere a medidas de distorção, do que a frequências aleatórias de teste, as quais possuem uma base técnica, mas não musical. Por tal razão, utilizamos frequências de teste pertencentes a tons bem conhecidos da escala musical.

Os tons de teste foram escolhidos com muito cuidado. Em primeiro lugar, o número de frequências teve que ser limitado, de forma a evitar que o acúmulo de dados dificultasse a interpretação do desempenho. Em segundo lugar, decidiu-se que as frequências escolhidas deveriam conter não só a faixa usual de notas fundamentais, produzida por instrumentos musicais, mas deveriam também estar localizadas de forma a exibir possíveis problemas dos alto-falantes. E, por fim, a estrutura harmônica a ser medida deveria estar significativamente relacionada tanto à experiência musical, como aos problemas convencionais dos alto-falantes.

Assim, os tons escolhidos são os seguintes: a nota E1 (41,2 Hz); A2 (110 Hz); e A4 (440 Hz). E1 foi escolhida para representar a nota fundamental mais baixa encontrada em música; ela está localizada, também, perto ou abaixo do corte de baixa frequência, mesmo dos maiores sistemas de som. A nota A2 foi incluída pela sua posição tonal, ou seja, sua localização no ponto de transição entre os tons médios e graves, além do fato de poder ser reproduzida até pelos menores sistemas. A4, uma nota fundamental para muitos instrumentos e vocalistas, foi selecionada não apenas pela  sua importância musical, mas também porque localiza-se na faixa em que muitos alto-falantes estão em "crossover" ou onde o alto-falante de graves começa a perder sua influência. Nos casos em que o ponto de "crossover" ou transição ficou abaixo dos 500 Hz, substituímos A4 por uma outra nota musical, localizada meia oitava abaixo, aproximadamente, da frequência real de "crossover".

Uma outra justificativa da escolha dessas três frequências está no fato de que suas respectivas harmônicas preenchem completamente a faixa entre as três notas, sem sobreposição.

Na análise dessa distorção, os componentes harmônicos ou de distorção significativos são a segunda harmônica (o mesmo tom na oitava seguinte, superior) e a terceira harmônica ( o quinto tom na oitava seguinte). As harmônicas superiores (da quarta para cima) raramente são consideradas, por serem praticamente desprezíveis em alto-falantes utilizados de acordo com as especificações dos fabricantes. Quando tais harmônicas aparecem, podem ser ouvidas sob a forma de estalos, o que geralmente denuncia problemas mecânicos.

Escalas de medida


A distorção harmônica é medida em porcentagem. O nível do tom fundamental é definido como sendo 100%, em cada ponto de nossas medidas, e o componente de distorção é dado como uma porcentagem desse nível.

Essa medida percentual da distorção harmônica pode ser relacionada com nossa experiência musical da seguinte maneira:

Numa audição ao ar livre, a pressão do som cairá pela metade, cada vez que nossa distância, em relação à fonte, for dobrada. Imagine, por exemplo, que você esteja a 3 metros de um solista; se você recuar para 6 metros, o som direto será reduzido em 6 dB. Em outras palavras, se considerarmos um valor de 100% a 3 metros, teremos 50% a 6 metros. Caso você recue ainda mais, para 12 metros, haverá uma outra redução de 6 dB, perfazendo uma queda de pressão de 12 dB, ou uma mudança para 25% do nível original, tomado a 3 metros.

Baseando-se nesses dados, é possível estabelecer uma relação entre a porcentagem do componente de distorção e a distância em que se ouve tal nível de distorção. Uma porcentagem de 10% em relação ao nível original, por exemplo, equivaleria a uma distância de 30 metros, já que a 3 metros tínhamos 100%. Essa análise simplificada leva em conta o espaço livre para a propagação do som e pode ser utilizada como uma regra geral, por aqueles que tenham condições de relacioná-la com audições ao ar livre.

Dessa forma, podemos considerar uma distorção de 20% da terceira harmônica de A2 como sendo musicalmente equivalente à audição de dois instrumentos; um dos instrumentos estaria produzindo uma nota A2 pura, a uma certa distância subjetiva; o segundo instrumento, representando a distorção, estaria produzindo o quinto da oitava seguinte e estaria localizado a uma distância, ao ar livre, 5 vezes superior àquela do instrumento fundamental.

O efeito musical do segundo instrumento, em geral, não é considerável. Na verdade, uma distorção harmônica desse tipo pode enriquecer, subjetivamente, uma senóide pura que, em caso contrário, seria muito pobre. Cuidado, entretanto, para não cometer erros, assumindo que, se um certo efeito é benigno para um senóide, o mesmo é válido para um tom musical complexo. Esses tons são compostos, eles mesmos, por harmônicas cuja estrutura pode ser alterada, devido ao fato de que cada harmônica, no tom original, pode atuar como uma fundamental e então, produzir produtos adicionais de distorção. O resultado desse efeito não é, necessariamente, musicalmente correto.

A distorção harmônica pode ser medida, também, como uma função da potência do amplificador. Cada um dos três tons fundamentais em jogo possui seu valor de pressão, em relação à potência do sistema amplificador. A razão dessa medida é a de fornecer uma estimativa do nível de distorção relativa esperada, para o material de banda larga gravado, não modificado pelos controles de tonalidade. Isto permite que se determine o nível em que se pode ouvir música, com níveis aceitáveis de distorção e, ao mesmo tempo, mostra a potência necessária, no amplificador, para a reprodução de determinado nível de som. Além disso, tal medida possibilita observar a quantidade de distorção resultante de uma equalização do alto-falante para uma amplitude plana.

Procedimento nos testes


O método de medida da distorção harmônica efetuado, é ligeiramente diferente dos métodos convencionais. Utilizou-se um filtro Wiener casado, de banda estreita, otimizado para uma medida de tempo pouco inferior a um segundo. Esse filtro teve sua frequência central de aceitação constantemente colocada em fase com a harmônica adequada do sinal senoidal, utilizado para alimentar o alto-falante. Um atenuador transmissor, calibrado em incrementos de 2 dB, forneceu a frequência fundamental ao amplificador de potência empregado nos testes.

O receptor atenuador, que compensava o efeito introduzido pelo transmissor, reduzia o sinal vindo do microfone. Desse modo, o nível enviado ao filtro Wiener permanecia constante, durante as medições.

Na ocasião de uma medida, o filtro era ativado e este, por sua vez, produzia um "surto" da frequência fundamental, com a duração de 980 milissegundos, que era enviado ao amplificador. Ao fim desse período, a alimentação do transmissor era desligada e a saída do filtro, transferida a um circuito de memória. Um traçador de gráficos automáticos entrava então em cena, programado para traçar uma linha reta entre o ponto obtido na medida anterior e aquele obtido na medida atual, num gráfico X-Y (ou distorção x potência).

Durante os experimentos, foram utilizadas várias medidas preventivas. Em primeiro lugar, utilizou-se um osciloscópio, para se visualizar o sinal de saída do alto-falante, sinal que foi ouvido através de um sistema auxiliar de alto-falantes (precaução necessária para se observar certos ruídos mecânicos eventuais, que indicariam que o limite máximo de potência havia sido atingido). Em segundo lugar, o rápido "surto" de sinal foi escolhido de forma a evitar danos ao alto-falante, já que níveis elevados de potência, mantidos durante algum tempo, são capazes de destruir até o mais robusto dos alto-falantes. Como medida adicional de precaução, um certo equipamento automático media continuamente os volt-ampères instantâneos e os watt-segundos de energia acumulada, fornecendo indicações rápidas, em relação aos limites de segurança.

O microfone de medida foi instalado bem próximo ao transdutor sob teste, o que garantiu que os padrões de resposta não fornecessem leituras incorretas da distorção.

O significado dos testes


A primeira coisa a ter em mente, sobre tais medições de distorção harmônica, é que o nível dessa distorção é bem mais elevado em alto-falantes do que nos amplificadores. Para se ter uma ideia dessa diferença, basta dizer que um alto-falante, reproduzindo um sinal de nível elevado, pode apresentar uma distorção harmônica mil vezes superior à do amplificador que o está alimentando. A razão dessa disparidade e da relativa "audibilidade" dos alto-falantes, amplificadores e outras partes da cadeia de reprodução é um assunto de pesquisa profundo demais para ser abordado por nós, neste momento. O ponto básico, que todos devem recordar, é que as elevadas porcentagens de distorção harmônica dos alto-falantes, em relação aos amplificadores, é considerada uma característica normal. Por outro lado, não se deve assumir que é impossível distinguir entre um bom e um mau amplificador, simplesmente devido aos elevados níveis de distorção dos alto-falantes; as diferenças entre amplificadores serão notadas, na maioria dos casos.

Ao se estudar gráficos de distorção harmônica dos alto-falantes, é interessante observar se a distorção cresce suavemente com o aumento do nível de potência, já que os desvios que possam ocorrer nessa curva são bastantes informativos. Uma suspensão não-linear do alto-falante, por exemplo, é geralmente indicada por uma segunda harmônica moderadamente elevada, nos níveis mais baixos de potência (1% a 0,1 W, por exemplo), e por um crescimento vagaroso da mesma, com o aumento de potência.

Frequentemente, algumas dessas curvas decrescem com o aumento de potência, ao longo de uma faixa substancial. Em tais casos, uma segunda não-linearidade, tal como bobinas fora de centro, pode tornar-se considerável, em níveis elevados de sinal, causando um rápido aumento na distorção. Quando isto ocorre em sinais baixos, o som torna-se pouco claro, no que se refere ao balanço tonal.

Sem exagerar na generalização, pode-se afirmar que em qualquer caso onde a curva de distorção não suba suavemente, com o aumento do nível de sinal, há uma tendência à inversão da ordenação subjetiva no comportamento dos sons, em relação à audição natural ("ao vivo") dos mesmos. Tal distorção é percebida como algo diferente ou estranho no som reproduzido, sem que se consiga atinar perfeitamente sobre o que seria esse "algo".

A distorção harmônica é, em geral, maior na nota E1 do que em A2 ou A4. Normalmente, mas nem sempre, isto se verifica devido a uma maior excursão do cone do alto-falante. Se o nível de distorção cresce suavemente com o aumento da potência e, então, sobe abruptamente, o problema está na movimentação do cone.

No caso de aumento da terceira harmônica, será, provavelmente, a bobina saindo da região linear da estrutura magnética do alto-falante. O som, dessa forma, parecerá "grosso" e, talvez, subjetivamente mais alto do que é, na realidade.

Em todos os casos, porém, a distorção harmônica deve decrescer continuamente, com a diminuição do sinal. Se, no entanto, os níveis de distorção permanecerem elevados, mesmo com sinais de 0,1 W de potência, o som reproduzido estará definitivamente "colorido" pela distorção.

PLL - Sintetização Digital na Faixa do Cidadão


As frequências da Faixa do Cidadão eram divididas em 23 canais que se estendiam de 26,965 a 27,255 MHz. O espaçamento entre canais eram de 10 kHz, exceto por algumas frequências intermediárias, reservadas para aplicações de radiocontrole.

Nos Estados Unidos, em resposta ao grande aumento no número de usuários, e o consequente "congestionamento" da faixa, o FCC, órgão competente nestes casos, autorizou o estabelecimento de mais 17 canais, a partir de 1º de janeiro de 1977, o que alargou a faixa até 27,405 MHz.

Os primeiros tranceptores da Faixa do Cidadão usavam um par de cristais para cada canal, sendo um deles para gerar a frequência de transmissão e o outro, para o oscilador local do receptor. Quanto maior fosse o número de canais abrangido pelo aparelho, tanto maior seria a quantidade de cristais necessários e consequentemente, mais caro seria o aparelho. Mais recentemente, havia surgido uma técnica chamada "cristalplexação" (crystalplexing), que necessitava apenas 14 cristais para os 23 canais. Alguns desses cristais operavam em torno dos 35 MHz, outros perto de 8 MHz, para controlar três osciladores; as frequências apropriadas eram conseguidas pela mistura e combinação de várias frequências dos osciladores.

Quando o FCC começou a considerar uma expansão desta faixa, pensava-se que o número de canais seria acrescido em 80 ou mais canais. A perspectiva de desenvolver a técnica da cristalplexação, de maneira a cobrir tal quantidade de canais, não seria atraente para os fabricantes, devido ao custo, complexidade e dimensões. Além disso, a disponibilidade dos cristais foi severamente afetada pela demanda crescente dos relógios digitais.

Introduzindo os sintetizadores digitais


As circunstâncias discutidas nos parágrafos anteriores levaram os fabricantes de rádios para a faixa do cidadão a considerar os sintetizadores digitais, em "phase locked loops" (PLL), para produzir as frequências requeridas. Os sintetizadores digitais têm sido usados há algum tempo, em uma grande variedade de aplicações, desde comunicações militares, até controle de velocidade de motores. A figura 1 representa um diagrama simplificado de um sintetizador empregado na Faixa do Cidadão: um oscilador controlado por tensão (VCO) atua como a entrada de "clock" de um divisor digital programável, que possui um módulo (razão de divisão) N determinado, em parte, pelas entradas de seleção de canal. A saída deste divisor é comparada com uma frequência de referência de 5 kHz, fornecida por um divisor fixo, a partir de um oscilador controlado a cristal.

Figura 1 - Elementos básicos de um sintetizador de frequência para um tranceptor da Faixa do Cidadão.

Se a saída do divisor programável diferir, em fase ou frequência, da referência de 5 kHz, o detector de fase vai gerar uma série de pulsos de erro. Estes pulsos têm uma amplitude fixa, mas sua frequência, duração e polaridade dependem, respectivamente, da menor das duas frequências de entrada, da diferença de tempo entre suas "bordas" ativas e do fato da frequência variável estar, ou não, em fase com a frequência de referência.

Os pulsos de erro são filtrados e amplificados pelo integrador, que vai causar uma variação na frequência do oscilador controlado por tensão, de maneira a fazer a frequência de saída do divisor programável coincidir com a referência de 5 kHz. Quando esta for alcançada, diz-se que a malha está fechada (locked loop). No instante em que o operador mudar de canal, a frequência de saída do divisor programável vai mudar de valor; os sinais de erro serão aplicados ao integrador e a frequência do VCO é transferida para o novo valor, e é "fechada".

A principal vantagem de um sintetizador digital reside no uso de apenas um cristal, desde que todas as frequências geradas pelo VCO sejam múltiplos inteiros da referência de 5 kHz. É possível a utilização de uma frequência de referência de 10 kHz, pois é igual ao espaçamento entre canais da Faixa do Cidadão. Contudo, para as aplicações em SSB (single side band - banda lateral única), a referência de 5 kHz é obrigatória.

Esta versatilidade é mais facilmente atingida pelo uso de uma frequência de 5 kHz como referência, juntamente com um divisor programável, com um módulo que possa ser elevado de um passo por vez, por meio de uma entrada separada. Certas soluções encontradas empregam uma frequência de referência de 1,25 kHz, devido às limitações de frequência dos circuitos digitais escolhidos.

Reunindo todo o conjunto


Uma outra vantagem do sintetizador digital é que todas as funções digitais podem ser reunidas em uma só "pastilha" LSI (large scale integration - integração em larga escala). Os primeiros sintetizadores foram desenvolvidos com circuitos lógicos SSI e MSI (small e medium scale integration - integração em pequena e média escala), e as diferenças entre os sistemas planejados por vários fabricantes de semicondutores foram causados por dois fatores. Um deles, envolvendo o projeto do divisor programável, de modo a acomodá-lo às diversas chaves de seleção de canal e aos diversos sistemas de comutação de faixa do VCO, adotados pelos vários fabricantes de tranceptores da Faixa do Cidadão. O outro fator, foi a tendência de conservar alguns dos sistemas de mistura e multiplexação, usados nos antigos rádios de cristalplexação.

Não havia limitações específicas de frequência nesses sistemas empregando técnicas de SSI / MSI, pois os projetistas digitais tinham a liberdade de usar lógica de alta velocidade onde necessário, e lógica de baixo consumo, em outras áreas.

Algumas das diferenças citadas começaram a desaparecer, quando os projetistas aprenderam mais detalhes sobre determinados pontos mais sutis dos circuitos analógicos e quando os projetistas de tranceptores se conscientizaram da versatilidade das técnicas de sintetizador digital.

Quando os sitemas SSI / MSI foram refinados e incorporados em "pastilhas" LSI, entretanto, a escolha de diferentes tecnologias conduziu a diferenças significativas. Por exemplo, algumas "pastilhas" LSI são feitas em tecnologia MOS ou CMOS, e o divisor programável não pode operar à frequência do VCO; tais sistemas requerem, então, um "prescaler" externo ou circuitos analógicos adicionais, para mistura e multiplicação. Outras diferenças, não especificamente associadas com a tecnologia LSI, relacionam-se com as preferências dos vários produtores de tranceptores de rádios da Faixa do Cidadão.

O receptor de dupla conversão


Antes de passar à análise dos vários métodos de sintetização, é de grande ajuda considerar as frequências que os sintetizadores precisam gerar, e como essas frequências são utilizadas no tranceptor. A figura 2 é um diagrama de blocos simplificado de um receptor de dupla conversão. O amplificador de RF usa sintonia passa-banda, ao invés de sintonia variável, pois a largura de faixa é somente 17% da frequência central. A seletividade adicional é conseguida nos amplificadores de FI. O primeiro deles opera a 10,695 MHz, o que significa que as frequências imagem estão localizadas a uma distância razoável da faixa coberta pelo amplificador de RF. A segunda frequência de FI é obtida ao se misturar a referência de 10,240 MHz com a primeira frequência intermediária.

Figura 2 - Receptor da Faixa do Cidadão de Dupla Conversão

O VCO deve gerar uma frequência igual a 10,695 MHz, acima ou abaixo da frequência do canal desejado (os dados para sintonia do canal 1 estão ilustrados na figura 2). Os dois sistemas, isto é, de alta e baixa injeção, foram propostos, mas a operação à menor frequência é favorecida, devido à restrição do FCC, que limita a potência irradiada, no estado "recepção", a 2nW, em frequências acima de 25 MHz.

Gerando a frequência de transmissão


Vários processos foram tentados para a geração da frequência de transmissão. A figura 3 ilustra dois métodos: no primeiro deles, representado com linhas tracejadas, a frequência do canal é obtida ao se misturar a saída do VCO com a referência de 10,240 MHz. No outro sistema (com linhas contínuas), o VCO opera na frequência do canal e, portanto, não precisa da mistura.

Figura 3 - Método direto versus método indireto de gerar a frequência de transmissão.

O segundo método foi o preferido por alguns fabricantes, mas a experiência provou que ele traz duas desvantagens visíveis: uma delas é a dificuldade de se evitar a realimentação da RF modulada, de volta ao VCO, que é um circuito sensível. Esta realimentação modulada, por sua vez, ocasiona uma  modulação espúria do VCO, que é difícil de controlar, mesmo com blindagem e desacoplamento severos.

Pelo outro lado, quando a frequência de transmissão é conseguida por mistura, o VCO estará operando a uma frequência bem diferente do sinal de RF de potência e, em conclusão, não será suscetível à realimentação.

A outra desvantagem de se trabalhar com o VCO à frequência de transmissão envolve a mudança de frequência que o VCO deve cumprir quando o operador da Faixa do Cidadão efetuar a comutação de "recepção" para "transmissão" e vice-versa. No estado "recepção", o VCO está trabalhando a uma "distância" de 10,695 MHz da frequência do canal, e este é o valor de frequência que o VCO precisa vencer para gerar diretamente a frequência de transmissão. Por outro lado, quando o estado "transmissão" é obtido por mistura, como mostra a figura 3, a frequência do VCO deve variar de apenas 0,455 MHz, entre os dois estados.

Este grau de variação é facilmente realizado ao se adicionar um segundo diodo varactor ao VCO, e fazendo uma mudança em sua polarização posterior, por ocasião da comutação. A tensão de polarização de duplo valor, neste varactor adicional, é projetada (ou ajustada) de modo que a tensão de controle do VCO (vinda do integrador) não varie no momento de comutação entre estados, reduzindo, assim, o tempo de sincronização (lock-up time). Ao contrário, para se variar a frequência do VCO em 10,695 MHz, é preciso uma comutação indutiva de faixa, maior complexidade, etc.

Adicionando outro oscilador a cristal


A necessidade de se mudar a frequência do VCO na ocasião da mudança de estado pode ser eliminada pela inclusão de um oscilador a cristal de 10,695 MHz, a exemplo da figura 4. Sem a necessidade de comutação de faixa, a gama de sintonia do VCO será de apenas 500 kHz e é possível empregar, então, circuitos sintonizados com maior Q (figura de mérito), que vão originar projetos de VCO mais simples e com maior pureza de espectro. Além disso, pode-se admitir constantes de tempos mais elevadas no integrador da malha, suprimindo assim os componentes das bandas laterais da frequência de referência de 5 kHz, na saída do VCO.

Figura 4 - Sistema de cristal duplo.

Embora este método exija um outro cristal e os componentes associados ao oscilador, existe, realmente, pouca diferença em número de peças, pois o sistema de cristal único requer um varactor adicional, um potenciômetro, um transístor de comutação e componentes auxiliares. As desvantagens da elevada complexidade e pior desempenho de um VCO com comutação de faixa tendem a anular a pequena vantagem econômica dos sistemas de um só cristal.

Alguns exemplos de sintetizadores LSI


Todos os sintetizadores LSI contêm o oscilador de referência, o divisor de referência, o divisor programável e o detector de fase. Eles possuem, ainda, um meio de evitar a operação do conjunto enquanto a malha não estiver fechada. Um outro item muito comum, nestes dispositivos, e que não foi evidenciado nas figuras, é a lógica necessária para transformar os números dos canais em códigos apropriados à seleção da razão programável de divisão N. Os cinco espaços de frequência ao longo dos 23 canais complicam essa lógica de transformação e um problema adicional foi introduzido, ao se reservar as frequências dos novos canais 24 e 25 no espaço entre os canais 22 e 23.

Normalmente, a função de transformação poderia ser efetuada por uma chave rotativa, mas com isto seria preciso destacar uma chave especial para cada tipo de sintetizador LSI, devido às diferenças existentes entre os divisores programáveis. Como isto não é interessante aos fabricantes de rádios da Faixa do Cidadão, todos os sintetizadores LSI aceitam chaves rotativas comuns, ou seus equivalentes eletrônicos.

A figura 5 ilustra um diagrama simplificado de um sintetizador CMOS, fechado pela linha tracejada, juntamente com outras funções essenciais. Há um total de oito entradas de seleção de canais, além de uma entrada de controle, que permite o uso de números de canal tanto em codificação binária ou BCD. Este sintetizador foi idealizado para ser usado somente em sistemas de cristal duplo, pois não possui o controle "transmissão" / "recepção", responsável pela variação de 455 kHz na frequência do VCO. O divisor de referência providencia uma saída de 5,120 MHz, que precisa ser triplicada externamente, e então misturada à frequência do VCO, para se obter uma entrada adequada ao divisor programável. Um dos problemas com este método de redução aparece devido a certos componentes de frequência indesejáveis, causando pulsos espúrios na saída do divisor programável, o que contribui para a distorção de FM no VCO.

Figura 5 - Exemplo de sintetizador CMOS

A figura 6, ilustra um sintetizador LSI bipolar de 23 canais, que utiliza técnicas da lógica de seguidor de emissor (emitter follower logic - EFL) e da lógica de injeção integrada (integrated injection logic - I2L). O circuito destina-se à operação com um único cristal e, portanto, requer um VCO de comutação de faixa.

Figura 6 - Sintetizador bipolar de 23 canais, usando circuitos EFL e I2L


Um oscilador de 30,720 MHz tem sua frequência dividida, a fim de fornecer as frequências de mistura e de referência. As frequências apropriadas ao divisor programável são obtidas ao se misturar a frequência do VCO com um sinal de 15,360 MHz, originando ao se dividir a frequência do oscilador (30,720 MHz) por dois.

O circuito aceita números de canal codificados em binário e possui uma entrada para deslocar a frequência do VCO em 5 kHz, para SSB. Uma entrada de controle Transmissão / Recepção faz com que a frequência do VCO se desloque de 455 kHz. Os misturadores analógicos estão também incluídos na "pastilha".

A figura 7 mostra um sintetizador LSI desenvolvido pela Fairchild. Designado como 11C84, aceita números de canal codificados em BCD, de 0 a 79. Os números de 1 a 40 sintonizam as frequências de canais normais, enquanto os outros são reservas adicionais para o canal nº 9, de emergência, e para testes e calibração de alta e baixa frequência do VCO. O integrado opera tanto em sistemas de cristal único, como de cristal duplo, e possui um controle de "offset" de 5 kHz, para aplicações em SSB. As possibilidades, em velocidade, da tecnologia Schottky de baixa potência, e mais o uso de técnicas de "pulse swallowing", permitem que o divisor programável trabalhe à frequência do VCO. Isto elimina a necessidade de um misturador e evita os problemas associados de pulsos espúrios.

Figura 7 - Sintetizador empregando tecnologia "Schottky" de baixa potência.

Para reduzir ainda mais a distorção de FM no VCO, o detector de fase possui características especiais. Uma falha normal em detectores de fase é a sua incapacidade para detectar pequenas diferenças de ângulo de fase entre as duas frequências em comparação. Consequentemente, a frequência variável desloca-se até o ponto em que o detector possa responder, onde a malha varia a frequência do VCO no sentido oposto, até que um erro de fase neste sentido seja detectado. A malha, então, reage novamente, e dirige a frequência do VCO para outro lado, de novo, e o processo é repetido. Tal característica de "busca", que ocasiona a distorção de FM no VCO, é evitada neste sintetizador, por meio de uma técnica que força o detector a operar fora de sua zona inativa. O sinal que indica "malha não fechada" é também especial, no fato de que ele surge toda vez que o erro de fase no detector exceder uma quantidade determinada. E este sinal permanece em serviço enquanto as entradas do detector não estiverem dentro da tolerância permitida para dois ciclos sucessivos da referência de 5 kHz.

Isto quer dizer que o sinal não pode ser desoperado por uma coincidência aleatória dos sinais de entrada do detector de fase.

Métodos diferente, idealizados por pessoas diferentes


Os exemplos vistos, se bem que não sejam os únicos sintetizadores LSI fabricados, servem para fazer ver que diferentes grupos de projetistas tendem a encontrar soluções distintas para o mesmo problema. Esta divergência foi causada pela escolha de diferentes tecnologias de semicondutores, mas existe um outro fator envolvido. Os projetistas de rádios de Faixa do Cidadão aprenderam, por exemplo, que o sistema de cristal duplo é preferível ao sistema de cristal único.

Os projetistas digitais tornaram-se conscientes dos efeitos dos pulsos espúrios e da banda inativa do detector, sobre a pureza do VCO. À medida que mais experiência é adquirida em sintetizadores empregados em aparelhos de consumo, e à medida que o volume de produção reduzir os custos, mais e mais sintetizadores LSI surgirão, fazendo parte de rádios AM e FM.

Com informações de: "Fairchild Journal of Semiconductor Progress".

quinta-feira, 14 de novembro de 2019

Fonte Estabilizada 13,8 volts 5 ampères

Uma fonte com excelente estabilidade, pouquíssimo "ripple", tensão ajustável numa faixa de 12 a 14 volts e corrente de até 5 ampères de saída, proteção e indicação contra sobrecargas e curtos. É de fácil montagem, pois contém poucos componentes (o integrado faz praticamente todo o serviço).


Funcionamento


Temos, na figura 1, o circuito completo da fonte; ela consiste de uma fonte convencional, de onda completa, formada por T1, D1, D2 e C1. Observe que o transformador T1 tem, em seu primário, possibilidade para conexão tanto em 110 como em 220 V, bastando para isso, uma pequena variação na ligação dos dois enrolamentos primários.

Figura 1 - Diagrama esquemático da fonte

Ligado a esta fonte simples, há um estágio regulador, formado pelo circuito integrado CI1, basicamente, que é regulador/estabilizador de tensão; seu circuito equivalente e pinagem estão na figura 2.

Figura 2 - Circuito Integrado 723

Para aumentar a capacidade de corrente de saída deste integrado, foi conectado a ele um circuito darlington, constituído pelos transistores de potência Q1 e Q2.

Os resistores R4, R5 e o potênciometro R10 formam um divisor de tensão ajustável, que permite variar a tensão de saída entre 12 e 14 V. Por seu lado, os resistores R2, R3 e R8 compõem o circuito de limitação de corrente. R8 é o sensor de corrente; quando a queda de tensão sobre ele chega a um nível pré-determinado (1,6V), o circuito limitador interno de CI1 entra em funcionamento, impedindo que a corrente de saída se eleve.

No momento em que esta condição ocorre, o transístor Q3 entra em condução, acendendo o LED D4, que alerta a chegada da corrente de saída ao limite.

Uma outra característica interessante desta fonte é a de manter a corrente de curto (corrente de saída com o circuito limitador em ação) abaixo da corrente máxima, reduzindo assim, a dissipação sobre os transístores Q1 e Q2. Veja, na figura 3, o gráfico tensão x corrente, e observe o percurso da corrente, até a condição de curto-circuito; sendo a corrente de curto menor que a corrente máxima, dá-se o nome de "fold back" a este tipo de limitação.

Figura 3 - Gráfico tensão x corrente

Observação: Há duas outras opções de corrente máxima de saída para a fonte, além dos 5 ampères nominais. "Jogando" com os valores de R8 e R9, pode-se conseguir as correntes máximas de 3A e 1,6A, de acordo com o que diz a tabela da figura 4. Veja que, no caso de 1,6 e 3 A, usa-se apenas um dos resistores, o que elimina a necessidade de se montar um deles na placa de circuito impresso.

Figura 4 - Opções de correntes máximas para 1,6 e 3 A.

Figura 5 - Ligação do Primário do transformador


Características

  • Tensão de saída: 12 a 14 volts
  • Limite de corrente: 5 / 3 / 1,6 A
  • Corrente de curto: 2,2 / 1,5 / 0,75 A
  • Regulação: 1%, com carga de 0 a 5 A
  • Ripple: sem carga - 80µV / 2 A - 10 mV / 4,2 A - 130 mV

Relação de componentes


R1 - 100 ohms
R2 - 68 ohms
R3, R4, R7 - 1 kohms
R5, R6 - 1,5 kohms
R8- 1 ohm / 5W
R9 - 0,47 ohms /10 W
R10 - trimpot 220 ohms
Obs.: todos os resistores são de 1/4 W, a não ser onde especificado.
C1 - 5000 u F - 25 V
C2 - 100pF
C3 - 100uF-25V
Q1 - EM 6121
Q2 - 2N 3055
Q3 - BC 318
C11 - 723P (14 pinos)
D1, D2 - díodos retificadores 50V / 6 A
D3 - LED vermelho
D4 - LED verde
T1 - transformador 110/220 V - 16 + 16 V, 5 A .
F - fusível 1 A + porta fusível
CH1 - interruptor simples 110 / 2 A

Aleta de alumínio para o transistor, acessórios para a montagem do transistor (isolador de mica, porcas, parafusos, arruelas, isoladores dos terminais), cordão de alimentação, parafusos e porcas para a fixação do transformador e da aleta à caixa, caixa de alumínio, com os respectivos parafusos de montagem e solda.



quarta-feira, 13 de novembro de 2019

Banda Lateral Única ou SSB

Os princípios básicos da geração, transmissão e recepção dos sinais SSB.


A modulação em banda lateral única, ou SSB (Single Side Band), apresenta nítidas vantagens na comunicações, sendo uma das mais importantes a economia do espectro de frequências, já tão congestionado. Quando comparada à modulação AM convencional, conclui-se que a modulação SSB ocupa apenas metade do espaço do espectro, proporcionando o dobro de canais em uma determinada porção da faixa de frequências. Um bom exemplo disso é a Faixa do Cidadão, em torno dos 27 MHz, onde cabem atualmente 80 canais de AM, enquanto em SSB este valor se duplica para 160 canais.

A modulação SSB, além disso, é muito mais eficiente que a modulação AM. Nesta, grande parte da potência fica concentrada na portadora de RF; em contraste, a modulação SSB suprime a portadora e concentra a maior parte da potência no sinal de uma das bandas laterais, que transporta as informações. Isto, aliado à maior imunidade quanto à variação seletiva de nível de sinal, fornece uma "potência de fala" superior a qualquer outro tipo de modulação.

As bases da modulação SSB


Para que se possa transmitir um sinal à distância, a informação é sobreposta a um sinal de RF. Este serve de "portador" (daí o nome de "portadora", dado à frequência de RF) para a informação de baixa frequência. A comunicação bem sucedida depende da utilização adequada das propriedades da portadora, assim como do emprego eficiente da energia transmitida.

A informação pode ser sobreposta à portadora de RF modificando-se (ou modulado-se) a mesma, como resultado da variação de sua frequência, sua amplitude ou ambas. A técnica da frequência modulada (FM), da amplitude modulada (AM) e da frequência e amplitude moduladas simultaneamente (AM/FM), podem tomar uma grande variedade de formas.

A modulação AM, em sua forma básica, é talvez a mais fácil de se produzir. Nesse caso, para se imprimir uma modulação de áudio-frequência (AF) em uma portadora de RF, faz-se variar a amplitude da portadora, de acordo com a amplitude instantânea do sinal de AF, num processo conhecido como "misturação". Na figura 1, as formas de onda de áudio e da portadora são combinadas para produzir o sinal modulado de RF, visto da parte inferior da ilustração.Observe que a amplitude pico-a-pico relativa do sinal modulado varia conforme a amplitude relativa do sinal modulador de áudio.

Figura 1 - Na modulação em amplitude (AM), uma frequência de áudio é combinada com
uma frequência de RF, de forma a produzir uma forma de onda, cuja envoltória varia,
em frequência e amplitude, conforme o sinal de áudio.


Matematicamente falando, o sinal de amplitude modulada contém várias frequências discretas, para cada combinação de portadora e áudio. Como se pode ver na figura 2A, o resultado da modulação consiste, basicamente, dos dois sinais originais, áudio e portadora, além de dois sinais adicionais, cujas frequências são o resultado da soma e da diferença dos sinais de AF e RF. Chamadas de "frequências laterais", essas duas frequências adicionais encontram-se igualmente espaçadas, uma em cada lado da frequência da portadora de RF (existem, na verdade, uma série de outras frequências adicionais, inclusive as harmônicas das entradas e saídas e os resultados de suas "misturações"; entretanto, tais frequências podem ser consideradas quase que desprezíveis e assim ignoradas, em nossa análise).

Figura 2 - Em "A", componentes do sinal de AM e, em "B", do sinal SSB.


Quando o sinal de áudio varia em frequência e amplitude, como é o caso da voz, as frequências laterais seguem-no religiosamente, produzindo aquilo que é chamado de "bandas laterais", em ambos os lados da frequência portadora. As bandas laterais formam a envoltória característica da forma de onda modulada e contém toda a informação original do sinal de áudio, sendo uma a imagem perfeita da outra. Com uma modulação de 100%, a portadora exige o dobro da potência total das duas bandas laterais juntas, sem carregar informação informação alguma. Além disso, já que as duas bandas laterais são exatamente iguais, apenas uma delas é necessária para que a comunicação aconteça. Analisando todos esses fatores, em conjunto, verifica-se que a potência remanescente, depois de retirada a parcela exigida pela portadora, deve ser dividida, ainda, entre as duas bandas laterais, o que reserva para cada uma delas somente 25% da potência total, nas melhores condições de modulação. Assim, a informação útil ficará com um quarto da potência total, no máximo.

Na comunicação SSB, uma das bandas laterais e a portadora são eliminadas. Feito isto, o sinal de áudio ainda mantém sua amplitude e frequência originais. A informação de frequência é transmitida como a diferença entre a referência da portadora e as frequências laterais. A informação de amplitude é caracterizada pela própria amplitude das frequências laterais. Assim, uma das bandas laterais de uma onda modulada em amplitude pode transportar o sinal de áudio, caso a frequência de referência da portadora original esteja disponível. A supressão da portadora e de uma das bandas laterais permite que toda a potência seja concentrada apenas no sinal que leva a informação (veja a figura 2B), multiplicando a eficiência da comunicação, enquanto exige a metade da banda de frequências normalmente requerida, em AM.

Um fato interessante sobre o sinal SSB é que ele simplesmente desaparece, na ausência de modulação (em AM, ao contrário, a portadora está presente, independentemente da modulação). Em outras palavras, a portadora tem suas bandas laterais apenas durante a modulação. Em SSB, a filtragem de todos os componentes, exceto uma das bandas laterais, faz com que esta desapareça quando cessa a modulação.

O excitador SSB

Ao contrário da AM convencional, o sinal SSB é produzido, geralmente, a um nível baixo de potência, em um estágio separado do transmissor, conhecido como "excitador". A saída do excitador é transformada, em um misturador, na frequência de transmissão desejada, a qual é depois amplificada até o nível requerido de potência (veja a figura 3).

Figura 3 - Diagrama de blocos básico de um transmissor SSB


O modulador balanceado, um certo tipo de misturador que suprime a portadora na saída, é um elemento básico do excitador SSB. A figura 4 mostra os tipos básicos de modulador balanceado: paralelo, série e em anel (ou duplamente balanceado); os tipos paralelo e série podem conter 2 ou 4 diodos, estes últimos sendo chamados de moduladores "ponte".

Figura 4 - Tipos de moduladores balanceados, utilizados em SSB.


A operação de um modulador balanceado pode ser visualizada como um sinal de áudio sendo ativado e desativado ao ritmo (ou seja, frequência) da portadora de RF. Se o modulador estiver balanceado, a portadora é cancelada e somente permanecem as duas bandas laterais, na saída; esse balanceamento é atingido pelo "casamento" preciso dos diodos, através de ajuste. Assim, em um circuito perfeitamente projetado e "casado", a supressão da portadora pode chegar aos 50 dB.

O modulador em anel proporciona uma boa supressão de portadora, com tensões maiores na saída e menor quantidade de produtos indesejáveis resultantes da misturação, em relação aos moduladores série e paralelo.

Após obter-se um sinal de dupla banda lateral (DSB - Double Side Band), com portadora suprimida, no modulador balanceado, é preciso agora remover uma dessas bandas, por meio de filtragem. Essa não é uma tarefa muito simples, devido ao fato das duas bandas laterais estarem bastante próximas entre si, em frequência. Assim, por exemplo, se a menor frequência moduladora for igual a 300 Hz, as bandas laterais estarão espaçadas de apenas 600 Hz. Portanto, a filtragem deve ser efetuada por um filtro com um Q (fator de mérito) elevado, uma banda de passagem estreita e inclinações abruptas. Na figura 5A, foi efetuada uma comparação entre um filtro ideal, um filtro de cristal ou cerâmica com múltiplos polos e um filtro LC convencional. Pelas curvas apresentadas, é óbvio que a escolha normal em SSB recai no filtro de cristal ou cerâmico.

Figura 5 - Em "A", comparação entre os filtros LC, cristal ou ou cerâmico e o ideal.
Em "B", alguns blocos de um excitador SSB.

Já que o filtro é projetado para uma frequência fixa, é preciso usar algum método que permita a seleção entre a banda lateral superior e a inferior. Pode-se, nesse caso, empregar dois filtros dispendiosos; no entanto, é preferível, por ser mais simples e econômico, chavear a frequência portadora no modulador balanceado. A título de exemplo, vamos imaginar que a saída do filtro deva ser a banda lateral superior; sendo assim, o oscilador da portadora pode ter sua frequência elevada de uma quantia fixa (3 kHz, em geral), de modo que o sinal correspondente à banda lateral inferior esteja na frequência do filtro. Como o oscilador da portadora é controlado a cristal, a mudança da banda lateral superior para a inferior, e vice-versa, pode ser executada facilmente, pela comutação de cristais, como mostra a figura 5B.

O excitador "fasador" constitui um outro tipo que pode ser encontrado em equipamentos SSB. Ele possui dois moduladores balanceados e dois sistemas de desvio de fase, sendo um para o sinal de áudio e outro para a portadora. As saídas dos moduladores são combinadas de tal forma, que uma das bandas laterais resulta reforçada e a outra suprimida. Tal processo requer um crítico fasamento para cada frequência, caso não haja uma transformação de frequência. Uma outra desvantagem está em sua complexidade, que é bem maior que aquela do método por filtro.

Conversão de frequência


Já que os requisitos da filtragem obrigam o excitador a trabalhar em uma frequência fixa, deve-se utilizar um dispositivo que faça a conversão da saída do excitador para a frequência de operação. O conversor consiste num misturador, com uma saída sintonizada e um oscilador, o qual pode tanto ser fixo como variável, dependendo das necessidades. O misturador produz a soma e a diferença dos sinais do excitador e do oscilador, e a saída sintonizada do misturador fornece apenas a frequência de transmissão.

Para melhor visualizar esse processo, observe a figura 6. Ali, um sinal SSB de 9 MHz, misturado a uma frequência do oscilador, igual a 19 MHz, dá origem às frequências de 10 e 28 MHz, respectivamente a diferença e a soma das outras duas. A saída sintonizada permite apenas a passagem do sinal de 28 MHz, que adquiriu a modulação SSB do sinal de 9 MHz. Esse sinal pode agora ser amplificado e transmitido.

Figura 6 - Estágio típico de conversão


A conversão de 9 para 28 MHz é conhecida como "conversão elevadora". De maneira similar, a "conversão redutora" pode ser utilizada para converter os 9 MHz em, digamos, 7 MHz. Se uma determinada faixa de frequências, tal como a de 28 a 28,5 MHz, é a que interessa, pode-se empregar cristais comutáveis de 19 a 19,5 MHz no conversor. Isto entretanto, pode se tornar problemático, caso muitas frequências sejam necessárias. Frequentemente, um oscilador de frequência variável (VFO) toma o lugar no conversor, de forma a permitir uma cobertura contínua de uma determinada faixa de frequências. N exemplo dado, um VFO com uma banda de 500 kHz, cobrindo desde os 19 até os 19,5 MHz, pode servir, devendo porém, ser suficientemente estável para detectar qualquer variação em frequência.

O conversor proporciona duas escolhas para a frequência do oscilador, que irão produzir a saída desejada. Seguindo o exemplo já fornecido, um oscilador de 37 MHz iria originar as frequências de 28 e 46 MHz. A escolha entre essas duas frequências vai depender de uma série de fatores, que inclui a estabilidade do oscilador, a eficiência do oscilador, a estabilidade do cristal e o custo. Se a diferença de frequências (37 - 9 MHz) for a escolhida, irá ocorrer uma inversão da banda lateral, o que significa que, se a saída do excitador (9 MHz) é a banda lateral superior, a saída do conversor será a banda lateral inferior (28 MHz). Tal fenômeno não ocorre quando a soma de frequências é escolhida.

Amplificadores lineares


Assim que o sinal SSB, em sua frequência final, é gerado, deve ser amplificado para alcançar o nível adequado de saída. Tanto os sinais SSB como os de AM podem sofrer severas distorções, devidas as quaisquer não linearidades dos amplificadores de potência. Em um transmissor de AM, esse problema é geralmente evitado, modulando-se a portadora no estágio final de RF. Essa modulação em "nível elevado" não pode ser empregada num transmissor SSB, onde um sinal de baixo nível, saído do excitador, deve ser bastante amplificado. Por tal razão, é muito importante que os estágios amplificadores sejam extremamente lineares, de modo a limitar a distorção ao mínimo.

A distorção criada pelas imperfeições do amplificador pode aparecer juntamente com o sinal SSB e em torno do mesmo, a níveis apreciáveis de potência. Tal distorção é produzida de maneira similar àquela do misturador. Ilustrando, podemos imaginar um sinal de teste, com as frequências de 500 e 900 Hz, sendo aplicado à entrada de áudio, utilizando-se um sinal da banda lateral superior, igual a 1000 kHz; sendo assim, a modulação irá aparecer em 1000,5 e 1000,9 kHz.

 Na figura 7, estão representados os resultados de menor ordem da distorção, produzidos devido à combinação harmônica. Observe que alguns desses componentes situam-se dentro da banda de passagem normal, enquanto outros estão adjacentes a ela. Tais componentes indesejáveis podem causar séria interferência aos canais contíguos e, em casos extremos, até deslocar frequências.

Figura 7 - Componentes de distorção, criados por não-linearidades do amplificador
de RF, juntamente com as frequências normais de transmissão.


Existe, ainda, uma outra fonte de distorção, que pode ser confundida com a falta de linearidade do amplificador de potência: trata-se da distorção criada na entrada de áudio, devido ao excessivo ceifamento ou à excessiva compressão, nos estágios de áudio, ou, também, devido à sobremodulação.

Aquele sinal de teste com duas frequências pode também ser utilizado para determinar a potência de um sinal SSB. Na figura 8, pode-se observar a forma de onda de um sinal SSB com duas frequências; o sinal está especificado sob a forma PEP (peak envelope power - potência do pico da envoltória) e é formado por dois componentes de igual amplitude. O valor PEP pode ser calculado, elevando-se ao quadrado o valor RMS da tensão de pico da envoltória (Ep), e dividindo o resultado pelo valor da resistência de crga (R). Matematicamente: Ep2 / R.

Figura 8

No caso do sinal com duas frequências, o valor PEP é igual ao dobro da potência média dissipada pela carga.

Recebendo sinais SSB


O receptor SSB é similar a qualquer outro receptor super-heteródino (veja a figura 9). Do mesmo modo que se verifica nos receptores AM, as não linearidades dos amplificadores de RF ou FI irão causar distorções.

Figura 9 - Receptor SSB básico

E a distorção causada pela sobrecarga do amplificador é reduzida pelo controle automático de ganho (CAG).

Esse estágio, o CAG, deve ser projetado diferentemente, no caso da recepção SSB, pois ao contrário do AM, onde a portadora existe, mesmo sem modulação, o sinal SSB desaparece completamente na ausência da mesma, conforme já havíamos visto. Por tal razão, o CAG deve reduzir rapidamente o ganho do amplificador, ao detectar um forte sinal SSB, e , por outro lado, deve poder aumentá-lo muito lentamente, quando o sinal desaparece. Essa resposta tipo operação rápida / "desoperação" lenta compensa as pequenas pausas que sempre existem durante uma conversa. Em certos receptores, o tempo de "sustentação" do CAG pode ser ajustado à vontade.

O amplificador de RF, o misturador e o oscilador local são semelhantes àqueles encontrados em receptores AM. O amplificador de FI, entretanto, pode ter uma banda passante bem mais estreita, já que o sinal de SSB, como foi visto, tem uma "largura" que é menos da metade daquela de um sinal AM. Ao se reduzir a banda de passagem da FI, ganha-se ainda na redução de potência total de ruído entregue ao detector. Normalmente, a frequência do oscilador local é selecionada de forma que o filtro mecânico ou a cristal, de Q elevado, do excitador, possa servir também como filtro de FI.

A demodulação SSB é radicalmente diferente da detecção AM, pois, como já sabemos, o sinal SSB varia em frequência a partir de uma referência, dependendo da frequência do sinal modulador. Como essa referência era originalmente suprida pela portadora de RF, é preciso simulá-la novamente, no receptor, de forma a criar algo com que comparar a frequência do sinal SSB. Portanto, o receptor deve injetar uma portadora simulada em seu detector, por intermédio de um oscilador de reinserção de portadora ou um oscilador de frequência de batimento. Este último é geralmente controlado a cristal, de modo a manter um elevado grau de estabilidade.

A frequência do oscilador de batimento depende da própria frequência do sinal (em outras palavras, se ele é da banda lateral superior ou da banda lateral inferior). No caso de banda lateral superior, a frequência desse oscilador deve ser menor que a frequência do sinal; com a banda lateral inferior, tal frequência deve ser maior que a frequência do sinal. O processo de comutação de cristais muda a frequência do oscilador de batimento, desde a extremidade inferior da banda passante de FI até a extremidade superior, para receber a banda lateral superior ou inferior.

O verdadeiro processo de detecção pode ocorrer em um detector integrador tipo AM, após a inclusão do sinal do oscilador de batimento. No entanto, pode-se obter uma detecção de muito maior qualidade com um detector de produto (alguns exemplos desse detector estão na figura 10).

Figura 10 - Dois tipos de detector de produto, empregados em demodulação do sinal SSB.

A qualidade do sinal de áudio recebido depende, em grande parte, de quão próxima está a portadora reinserida da frequência da portadora original. Para permitir que haja um pequeno desvio ou desalinhamento entre o sinal transmitido e o oscilador local e de batimento, do receptor, é preciso incluir, no mesmo, um meio que possibilite que um deles, ou ambos, sejam calibrados. O "trimmer" empregado nesses dois osciladores recebe vários nomes, o mais popular sendo "controle de sintonia fina" e, no caso dos tranceptores da Faixa do Cidadão, "clarifier" (clarificador). Em alguns receptores mais sofisticados, tal função é desempenhada por um controle automático de frequência, semelhante, em função, ao CAF empregado nos receptores de FM. Sem a presença desse tipo de controle, seja manual ou automático, as mensagens recebidas seriam ininteligíveis.

Concluindo

O uso da modulação SSB oferece vantagens reais na comunicação moderna. Especialmente nas altas frequências, a modulação SSB conserva um valioso espaço no espectro. Nos casos em que a potência total de saída é limitada por lei, a SSB concentra toda a potência no sinal útil de informação, proporcionando uma maior gama de comunicação e maior confiabilidade. Se, por outro lado, a potência máxima for limitada pelas válvulas ou transístores da saída, a modulação SSB proporcionará uma elevação da eficiência total. De fato, pode-se demonstrar facilmente que, comparado a um sistema de transceptor AM, o sistema SSB, empregando componentes similares, pode proporcionar um aumento efetivo de 9 dB no desempenho do conjunto.

Senado aprova acordo sobre uso da base espacial de Alcântara pelos EUA

O plenário do Senado aprovou nesta terça-feira (12), o acordo que permite a participação dos Estados Unidos em lançamentos a partir do Centro Espacial de Alcântara (CEA), no Maranhão. O acordo é considerado pelo governo brasileiro uma etapa fundamental para destravar as atividades de lançamento de cargas para a órbita da Terra a partir do Centro de Lançamento de Alcântara (CLA). O texto não necessita da sanção presidencial e será promulgado.

O projeto de decreto legislativo aprovado hoje ratifica o texto do Acordo de Salvaguardas Tecnológicas entre o Brasil e os Estados Unidos, assinado em março em Washington. Na ocasião, O acordo foi assinado pelos ministros Ernesto Araújo, das Relações Exteriores, e Marcos Pontes, da Ciência, Tecnologia, Informação e Comunicações, e pelo secretário assistente do Escritório de Segurança Internacional e Não Proliferação do Departamento de Estado dos Estados Unidos, Christopher Ford.

Para o relator da matéria, senador Roberto Rocha (PSDB-MA), a entrada em vigor do acordo colocará o Brasil no mercado global de lançamentos de carga ao espaço, além de destravar a operação comercial de Alcântara e viabilizar a implantação da política espacial brasileira.

O Acordo de Salvaguardas Tecnológicas (AST) trata de proteger a tecnologia desenvolvida pelos países contra o uso ou cópia não autorizados. Segundo a Agência Espacial Brasileira (AEB), sem a assinatura do acordo com os Estados Unidos, nenhum satélite com tecnologia norte-americana embargada poderia ser lançado da Base de Alcântara, pois não haveria garantia da proteção da tecnologia patenteada por aquele país. “Sem o AST, […] o Brasil ficará de fora do mercado de lançamentos espaciais”, explica a agência.

A regra é não permitir a divulgação de informações sobre veículos lançadores, espaçonaves e equipamentos dos Estados Unidos. O governo norte-americano, no entanto, deverá fornecer ao governo brasileiro informações sobre a presença de material radioativo ou de substâncias que possam causar danos ao meio ambiente ou à saúde humana, de acordo com a legislação brasileira.

Segundo a AEB, esse tipo de acordo é praxe no setor espacial. Acordos semelhantes foram firmados com Rússia e Ucrânia, sem ameaça à soberania nacional. O Centro Espacial de Alcântara continuará sob controle do governo brasileiro, assim como o Brasil manterá a supervisão das suas atividades, explicou a AEB.

*Com informações da Agência Senado

Base de Alcântara

segunda-feira, 11 de novembro de 2019

FloripaSat-1: primeiro satélite da UFSC será lançado por foguete chinês em dezembro

O FloripaSat-1, primeiro satélite da Universidade Federal de Santa Catarina (UFSC), será lançado na madrugada do dia 17 de dezembro, a 0h21min (horário de Brasília), do Centro de Lançamento de Taiyuan (TSLC), na China, pelo foguete Longa Marcha-4. Junto do satélite da UFSC, também será transportado o satélite sino-brasileiro de recursos terrestres, o CBERS-4A.



Desenvolvido por alunos de graduação, mestrado e doutorado dos cursos de Engenharia Elétrica, Automação e Mecânica, o FloripaSat-1 é um cubeSat de pesquisa tecnológica construído em parceria com o programa Uniespaço da Agência Espacial Brasileira (AEB). No último mês de outubro, membros do SpaceLab (spacelab.ufsc.br) estiveram no Instituto Nacional de Pesquisa Espacial (Inpe) para testes com o satélite.

Um cubeSat é um tipo de satélite miniaturizado (nanossatélite), medindo múltiplas unidades cúbicas de 10cm (formato 1U) e pesando não mais do que 1,33 kg por unidade. Idealizado pelo grupo FloripaSat, coordenado pelo professor Eduardo Augusto Bezerra, o projeto tem vida útil estimada em dois anos e apresenta como principal objetivo “envolver estudantes em uma missão espacial completa, desenvolvendo todos os módulos de um nanossatélite e sua própria estação terrestre de comunicação”.



O projeto possui, ainda, entre suas finalidades a pesquisa e o desenvolvimento de tecnologia para a área espacial; a capacitação para tecnologias espaciais, por meio da integração de alunos de graduação, pós-graduação e professores no desenvolvimento de pesquisas; e o fortalecimento do estado de Santa Catarina como um polo na área espacial, visando atrair objetos inovadores e de grande complexidade e estimular investimentos públicos e privados.

Satélite sino-brasileiro


O foguete chinês Longa Marcha-4 também fará o lançamento do CBERS-4A – projeto da AEB e da Academia Chinesa de Tecnologia Espacial (CAST), executado pelo Inpe. Desde maio, quando foi transportado do Brasil para o país asiático, o satélite estava armazenado e em testes no laboratório da Academia Chinesa, em Pequim, tendo sido transportado de trem na última terça-feira, dia 5 de novembro, para a base de lançamento, a 500 km da capital chinesa, de onde será lançado.

De acordo com informações do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), o CBERS-4A terá seus módulos de serviço e de carga útil integrados pelos especialistas do Inpe e da CAST na base chinesa. Depois desta etapa, os módulos do satélite serão submetidos a testes elétricos para verificação de ocorrências de danos durante o transporte.

Segundo dados do MCTIC, os testes foram programados para serem concluídos no mês de novembro, quando serão realizadas as atividades de preparação final, como a instalação do painel solar e a revisão de prontidão do satélite, quando é autorizado o abastecimento dos tanques de combustível do CBERS-4A.

O CBERS-4A é o sexto satélite construído a partir de uma cooperação com a China, que completou 30 anos. O satélite fornecerá imagens para monitorar o meio ambiente, identificar desmatamentos, desastres naturais e para a expansão sustentável da agricultura e das cidades, entre outras aplicações.

Com informações de: https://noticias.ufsc.br/2019/11/primeiro-satelite-da-ufsc-sera-lancado-por-foguete-chines-em-dezembro/

domingo, 10 de novembro de 2019

BBC - A História da Eletricidade - Revelações e Revoluções - Episódio 03

Documentário da BBC onde o professor Jim Al-Khalili conta a eletrizante história de nossa busca para dominar a força mais misteriosa da natureza — a eletricidade. Até relativamente pouco tempo atrás, a eletricidade era vista como mágica, mas hoje é a alma do mundo moderno e alicerça todos os nossos avanços tecnológicos.

Episódio 03 — Revelações e Revoluções:


A eletricidade não é apenas algo que produz calor e luz, ela conecta o mundo através de redes e radiodifusão. Após séculos de experiências com a eletricidade, o último episódio conta a história de como uma nova era de conhecimento surgiu — como descobrimos os campos elétricos e as ondas eletromagnéticas. Hoje, não conseguimos imaginar o mundo sem eletricidade — ela define nossa era. À medida que nosso conhecimento sobre ela aumentou, igualmente cresceu nossa dependência dela, e hoje estamos prestes a fazer um novo avanço, pois se pudermos entender o segredo da supercondutividade, poderemos, mais uma vez, transformar o mundo.



Episódios


Episódio 1 - BBC - A História da Eletricidade – Choque e Temor: A Faísca https://www.artusi.net.br/2019/11/bbc-historia-da-eletricidade-choque-e.html

Episódio 2 - BBC - A História da Eletricidade – A Era da Invenção https://www.artusi.net.br/2019/11/bbc-historia-da-eletricidade-era-da.html

Episódio 3 - BBC - A História da Eletricidade - Revelações e Revoluções https://www.artusi.net.br/2019/11/bbc-historia-da-eletricidade-revelacoes.html


Transcrição do vídeo


Em 14 de agosto de 1894, uma multidão animada se reunia em frente ao Museu de História Natural de Oxford. Este enorme edifício gótico sediava o encontro anual da Associação Britânica para o Avanço da Ciência. Mais de 2 mil ingressos foram vendidos antecipadamente e o museu já estava lotado, à espera da próxima palestra a ser ministrada pelo prof. Oliver Lodge. Seu nome pode não ser familiar hoje, mas suas descobertas deveriam tê-lo feito tão famoso como os demais grandes pioneiros elétricos da História.

Gente como Benjamin Franklin, Alessandro Volta, ou mesmo o grande Michael Faraday.

Involuntariamente, ele iniciaria uma série de eventos que iriam revolucionar o mundo vitoriano do bronze e fio telegráfico. Esta palestra marcaria o início do mundo moderno elétrico, um mundo dominado pelo silício e comunicação em massa sem fio.

Neste episódio, descobriremos como a eletricidade conecta o mundo por meio da radiodifusão e redes de computadores, e como finalmente aprendemos a desvendar e explorar a eletricidade em nível atômico. Após séculos das experiências humanas com a eletricidade, uma nova era de conhecimento estava iniciando.

Estas lâmpadas não estão ligadas a nenhuma fonte de energia, mas mesmo assim acendem. É o efeito invisível da eletricidade, um efeito que não se limita aos fios através dos quais ela corre. Em meados do século XIX, uma grande teoria foi proposta para explicar como isso se dá. A teoria diz que em torno de qualquer carga elétrica, e há muita eletricidade correndo acima da minha cabeça, há um campo de força.

Estas lâmpadas fluorescentes estão acesas porque estão sob a influência do campo de forçados cabos de alta tensão ali em cima. A teoria de que um fluxo de eletricidade poderia, de alguma forma, criar um campo de força invisível, foi originalmente proposta por Michael Faraday, mas seria necessário um jovem escocês genial chamado James Clark Maxwell, para provar que Faraday estava certo, e não através da experimentação, mas da matemática.

Era totalmente diferente do jeito típico do século XIX de entender como o mundo funciona, que era essencialmente vê-lo como um mecanismo físico. Antes de Maxwell, os cientistas construíam máquinas estranhas ou concebiam experiências maravilhosas para criar e medir a eletricidade. Mas Maxwell era diferente. Ele estava interessado nos números, e sua nova teoria não só revelou o campo de força invisível da eletricidade, mas como ele poderia ser manipulado, o que mostraria ser uma das mais importantes descobertas científicas de todos os tempos.

Maxwell foi um matemático e um dos melhores. Ele via eletricidade e magnetismo de uma nova forma. Ele expressou tudo isso em equações matemáticas concisas. E o mais importante é que nas equações de Maxwell há o entendimento da eletricidade e do magnetismo como algo interligado e que podia ocorrer em ondas.

Os cálculos de Maxwell mostraram como esses campos poderiam ser perturbados assim como tocar a superfície da água com o dedo. Mudar a direção da corrente elétrica criaria uma ondulação ou onda através destes campos elétrico e magnético. E mudar constantemente a direção do fluxo da corrente, para a frente e para trás, como uma corrente alternada, produziria uma série de ondas, ondas que transportavam energia. A matemática de Maxwell lhe dizia que alterar as correntes elétricas emitiria grandes ondas de energia às suas vizinhanças. Ondas que se propagariam ao infinito a menos que algo as absorvesse.

A matemática de Maxwell era tão avançada e complicada que apenas poucos a compreenderam na época, e embora seu trabalho ainda fosse apenas uma teoria, inspirou um jovem físico alemão chamado Heinrich Hertz. Hertz decidiu dedicar-se a projetar uma experiência para provar que as ondas de Maxwell realmente existiam. E eis ela aqui.

Este é o aparelho original de Hertz e sua beleza está em sua grande simplicidade. O calor gera uma corrente alternada que corre por estas hastes de metal, com uma faísca que salta pelo espaço entre estas duas esferas. Se Maxwell estivesse certo, esta corrente alternada deveria gerar uma onda eletromagnética invisível que se espalharia no ambiente. Se colocarmos um fio no caminho dessa onda, então nele, deve haver um campo eletromagnético oscilante, que deve induzir uma corrente elétrica no fio.

Assim, Hertz montou este anel de fio, o seu receptor, que colocaria em posições diferentes pela sala para verificar se poderia detectar a presença da onda. E ele fez isso deixando um espaço bem pequeno no fio, através do qual uma faísca saltaria se uma corrente percorresse o anel. Devido à corrente ser muito fraca, essa faísca é muito tênue. Hertz passou praticamente a maior parte de 1887 numa sala escura olhando fixamente por uma lente para ver se podia detectar a presença dessa faísca tênue.

Mas Hertz não era o único na tentativa de criar as ondas de Maxwell. Na Inglaterra, um jovem professor de física chamado Oliver Lodge era fascinado pelo tema há anos mas não tivera tempo para projetar experiências para tentar descobri-las. Então, um dia, no início de 1888, ao montar uma experiência sobre proteção contra raios, ele notou algo incomum.

Lodge notou que quando ele montava seu equipamento e enviava uma corrente alternada em torno dos fios, ele podia ver manchas brilhantes entre os fios, e com um pouco de artimanha, ele viu que as seções brilhantes formavam um padrão. O brilho azul e faíscas elétricas ocorriam em seções distintas uniformemente espaçadas ao longo dos fios. Ele percebeu que eram os picos e depressões de uma onda, uma onda eletromagnética invisível. Lodge provara que Maxwell estava certo. Finalmente, por acidente, Lodge criara as ondas eletromagnéticas de Maxwell ao redor dos fios. A grande questão fora respondida.

Cheio de emoção por sua descoberta, Lodge preparou-se para anunciá-la ao mundo, no encontro científico anual de verão organizado pela Associação Britânica. Antes disso, porém, ele decidiu sair de férias. O momento não podia ter sido pior, porque na Alemanha, ao mesmo tempo, Heinrich Hertz também testava as teorias de Maxwell.

Hertz acabou encontrando o que procurava... uma faísca minúscula. Enquanto carregava seu receptor por diferentes posições na sala, ele foi capaz de mapear a forma das ondas produzidas pelo seu aparelho. Ele checou cada um dos cálculos de Maxwell com cuidado e os testou experimentalmente. Foi uma façanha da ciência experimental.

Na Grã-Bretanha, enquanto a multidão se reunia para o encontro da Associação Britânica, Oliver Lodge voltava de férias relaxado e cheio de expectativa. Este, Lodge pensou, seria o seu momento de triunfo, quando poderia anunciar a sua descoberta das ondas de Maxwell.

Seu grande amigo, o matemático Fitzgerald, fez o discurso de abertura do encontro. Mas nele, ele anunciou que Heinrik Hertz acabara de publicar resultados surpreendentes. Ele tinha detectado as ondas de Maxwell viajando pelo espaço. "Arrebatamos o raio do próprio Júpiter e escravizamos todos os éteres predominantes", ele anunciou.

Posso imaginar como Lodge deve ter se sentido tendo a sua ideia roubada. O professor Oliver Lodge perdera seu momento de triunfo, derrotado por Heinrich Hertz. A demonstração espetacular de Hertz das ondas eletromagnéticas, as chamadas ondas de rádio, embora ele não soubesse à época, que levaria a uma revolução nas comunicações no século seguinte.

A teoria de Maxwell mostrara como cargas elétricas poderiam criar um campo de força em torno delas. E que as ondas se espalhariam por esses campos como ondas num lago. E Hertz construiu um dispositivo que poderia realmente criar e detectar as ondas ao passarem pelo ar. Mas, quase imediatamente, haveria uma outra revelação no conhecimento da eletricidade. Uma revelação que mais uma vez envolveria o Prof. Oliver Lodge. E, mais uma vez, sua ideia seria roubada.

A história começa em Oxford, no verão de 1894. Hertz morrera repentinamente no início daquele ano, e assim Lodge preparou uma palestra em memória com uma demonstração que levaria a ideia das ondas a um público mais amplo. Lodge trabalhara em sua palestra.

Ele pesquisou as melhores formas de detectar as ondas, e pegou emprestado um novo aparelho de uns amigos. Ele fizera alguns avanços significativos na tecnologia projetada para detectar as ondas. Este aparelho gera uma corrente alternada e uma faísca através deste espaço. A corrente alternada envia uma onda eletromagnética, como Maxwell previra, que é captada pelo receptor. Ele dispara uma corrente elétrica muito fraca por estas duas antenas. Isso foi o que Hertz fizera.

A melhoria feita por Lodge foi acrescentar este tubo com limalha de ferro. A fraca corrente elétrica atravessa a limalha, forçando-a a se aglutinar. Quando isso ocorre, um segundo circuito elétrico é fechado e dispara a campainha. Se eu apertar o botão nesta extremidade, ele dispara a campainha no receptor. Isso é feito sem nenhuma ligação entre ambos.

Parece mágica.

Se imaginarmos um recinto lotado, muitas pessoas na plateia, que veem de repente... como que por mágica... uma campainha tocando. É incrível. Pode não ter sido a demonstração mais dramática que a plateia já viu, mas certamente causou sensação entre ela. O aparelho de Lodge, disposto desta forma, não parecia mais uma experiência científica. Parecia muito com as máquinas de telégrafo que revolucionaram a comunicação, mas sem os longos cabos que se estendiam entre as estações emissora e receptora. Para os membros mais esclarecidos da plateia, isto era bem mais do que mostrar que o mestre Maxwell estava certo. Esta era uma forma nova e revolucionária de comunicação.

Lodge publicou suas anotações sobre como as ondas eletromagnéticas poderiam ser enviadas e recebidas usando seus aprimoramentos. Mundo afora, inventores, entusiastas amadores e cientistas liam os relatos de Lodge com avidez e começaram experimentações com as ondas hertzianas. Dois personagens bem diferentes seriam inspirados por elas.

Ambos trariam melhorias para o telégrafo sem fio, e ambos seriam lembrados por sua contribuição para a ciência, bem mais do que Oliver Lodge.

O primeiro foi Guglielmo Marconi. Marconi era muito inteligente, astuto e um homem encantador. Ele tinha o encanto ítalo-irlandês. Ele utilizava isso com todo mundo, de mulheres a cientistas de renome mundial. Marconi não era cientista, mas leu tudo o que podia sobre o trabalho de outras pessoas, a fim de criar seu próprio sistema de telégrafo sem fio. É possível que, por ter sido criado em Bolonha, perto da costa italiana, tenha percebido logo o potencial da comunicação sem fio em relação ao uso marítimo. Então, com apenas 22 anos, foi para Londres com sua mãe irlandesa para comercializá-lo.
A outra pessoa inspirada pela palestra de Lodge era professor do Presidency College em Calcutá, chamado Jagadish Chandra Bose. Apesar das graduações em Londres e Cambridge, a indicação de um indiano como cientista em Calcutá foi uma luta contra o preconceito racial. Diziam-se que os indianos não tinham a índole necessária para a ciência exata. Bose estava disposto a provar que isso estava errado, e nestes arquivos, podemos ver o quão rápido ele trabalhou.

Este é a ata do 66º encontro da Associação Britânica em Liverpool, em setembro de 1896. E eis Bose, o primeiro indiano a se apresentar no encontro da associação, falando sobre sua obra e demonstrando o seu aparelho. Ele construiu e aperfeiçoou o detector descrito por Lodge, pois no clima quente e úmido indiano, ele descobriu que a limalha metálica no tubo que Lodge usava para detectar as ondas enferrujava-se e travava. Por isso, Bose teve que criar um detector mais prático usando um fio espiral como alternativa. Seu trabalho foi descrito como uma sensação. O detector era extremamente confiável e podia funcionar a bordo de navios, por isso tinha grande potencial para a frota naval britânica.

A Grã-Bretanha era o centro de uma grande rede de telecomunicações que se estendia praticamente por todo o mundo, usada para apoiar uma rede igualmente grande de navios mercantes e de guerra, utilizados para sustentar o império britânico. Mas Bose, um legítimo cientista, não estava interessado no potencial comercial dos sinais sem fio ao contrário de Marconi. Este era um novo ramo de ponta, mas Marconi não era um cientista formado, ele abordava as coisas de forma diferente, talvez por isso ele tenha progredido tão rápido. E ele era muito bom em desenvolver laços com as pessoas necessárias para conseguir fazer seu trabalho. Marconi usou seus contatos para ir direto ao único lugar que tinha os recursos para ajudá-lo.

Os Correios britânicos eram uma instituição muito poderosa. Quando Marconi chegou a Londres em 1896, estes edifícios eram recém-construídos e já se prestavam aos negócios dos serviços postais e telegráficos do império. Marconi trouxe consigo seu sistema de telégrafo da Itália, alegando que podia enviar sinais sem fio por distâncias inéditas. E o engenheiro-chefe dos Correios, William Preece, viu imediatamente o potencial da tecnologia. Preece ofereceu a Marconi os grandes recursos financeiros e de engenharia dos Correios, e eles começaram a trabalhar lá em cima, no telhado. A antiga sede dos Correios ficava bem ali. E entre este e aquele telhado, Marconi e os engenheiros dos Correios testavam o envio e recepção de ondas eletromagnéticas. Os engenheiros o ajudaram a melhorar o seu aparelho, depois, Preece e Marconi demonstraram-no para pessoas influentes no governo e na Marinha.

Preece não percebeu que enquanto anunciava com orgulho a parceria exitosa de Marconi com os Correios, Marconi fazia planos nos bastidores. Ele solicitara a patente britânica sobre todo o ramo da telegrafia sem fio e planejava criar sua própria empresa. Quando a patente foi concedida, o mundo desabou na comunidade científica. A patente, por si só, já era revolucionária. As patentes só podiam se dar sobre coisas que não fossem de domínio público, mas Marconi, sagazmente, escondera o seu equipamento em uma caixa secreta. E aqui está ele. Quando sua patente foi finalmente concedida, Marconi, cerimoniosamente, abriu a caixa. Todos estavam ansiosos para ver que invenções ela continha. Baterias formando um circuito, limalha de ferro no tubo para completar o circuito e tocar a campainha na parte superior. Nada que não tenha sido visto, mas mesmo assim Marconi o havia patenteado. A razão de Marconi ser famoso não é por causa dessa invenção. Ele não inventou o rádio, mas o melhorou e o transformou num sistema. Lodge não fez isso. E é por isso que nos lembramos de Marconi, e não nos lembramos de Lodge.

O mundo científico estava em pé de guerra. Ali estava aquele jovem que sabia pouco sobre a ciência por trás do seu equipamento prestes a fazer sua fortuna, com o trabalho de outrem. Mesmo o seu grande incentivador Preece, ficou decepcionado e magoado quando soube que Marconi estava prestes a seguir sozinho e montar sua própria empresa. Lodge e vários cientistas iniciaram uma onda de patenteamento de cada minúsculo detalhe e melhorias que faziam em seus equipamentos. Esse novo ambiente chocou Bose ao retornar à Grã-Bretanha. Bose escreveu para a Índia, desgostoso com o que encontrara na Inglaterra.

"Dinheiro, dinheiro, dinheiro o tempo todo, "que cobiça devastadora! "Eu gostaria que pudessem ver "a loucura por dinheiro do povo daqui."

Sua desilusão com as mudanças que viu no país que ele reverenciava pela integridade científica e excelência era evidente. Mas foram seus amigos que o convenceram a registrar sua primeira e única patente, sobre sua descoberta de um novo tipo de detector de ondas.

Esta descoberta levaria a uma revolução ainda maior no mundo. Ele descobrira o poder dos cristais. Isto substituiu técnicas antigas, como as sujas e problemáticas limalhas de ferro.

Era uma nova forma de detectar ondas de rádio, que estaria no cerne da indústria do rádio.

A descoberta de Bose foi simples, mas iria realmente moldar o mundo moderno. Quando alguns cristais são tocados com metal para testar sua condutividade elétrica, podem mostrar comportamento bastante estranho e variado.

Este cristal, por exemplo. Se eu puder tocá-lo no ponto certo com a ponta deste fio de metal, e depois ligá-lo a uma pilha, ele libera uma corrente significativa. Mas se inverter minhas conexões com a pilha e experimentar passar a corrente no sentido oposto... haverá redução. Não é um condutor total de eletricidade, é um semicondutor, e seu primeiro uso foi na detecção de ondas eletromagnéticas. Quando Bose utilizou um cristal como este em seus circuitos em vez do tubo de limalha, ele descobriu que era um detector bem mais eficiente e eficaz de ondas eletromagnéticas. Foi essa estranha propriedade da ligação entre o fio, conhecido como "bigode de gato", e o cristal, que permitia à corrente passar mais facilmente numa direção do que na outra que implicou seu uso na extração dos sinais de ondas eletromagnéticas.

Na época, ninguém sabia por que certos cristais agiam dessa forma. Mas para cientistas e engenheiros, esse comportamento estranho teve um efeito prático profundo e quase milagroso. Com cristais como detectores, agora era possível transmitir e detectar o som da voz humana ou música. Em sua palestra em Oxford, em 1894, Oliver Lodge abriu a caixa de Pandora. Como acadêmico, ele não conseguiu prever que as descobertas científicas das quais participou tinham tamanho potencial comercial.

A única patente que ele conseguiu assegurar, o meio de ajustar um receptor para um sinal de rádio específico, foi adquirido dele pela poderosa empresa de Marconi. Talvez a maior revolta de Lodge tenha sido em 1909, quando Marconi recebeu o Nobel de Física pela comunicação sem fio. É difícil imaginar maior afronta ao físico que, por tão pouco, perdeu para Hertz a descoberta das ondas de rádio, e que depois mostrou ao mundo como elas poderiam ser enviadas e recebidas. Mas apesar desta afronta, Lodge permaneceu magnânimo, usando a nova tecnologia de transmissão que resultou do seu trabalho para dar crédito a outros, como mostra este raro filme. Hertz fez um grande avanço. Ele descobriu como produzir e detectar ondas no espaço, pondo o éter em uso prático. Aproveitando-o para a transmissão de inteligência de forma a ser aprimorada por muitos outros.

Hoje, mal podemos imaginar o mundo sem a radiodifusão, e imaginar uma época em que as ondas de rádio sequer tinham sido sonhadas. Os engenheiros continuaram a refinar e aperfeiçoar a nossa habilidade de transmitir e receber ondas eletromagnéticas, mas sua descoberta inicial acabou sendo o triunfo de pura ciência, de Maxwell, por meio de Hertz, até Lodge.

Mas mesmo assim a natureza da própria eletricidade permanecia sem explicação. O que criava as cargas elétricas e as correntes, afinal? Embora os cientistas estivessem aprendendo a explorar a eletricidade, eles ainda não sabiam o que ela realmente era. Mas ssa pergunta foi sendo respondida com experiências que analisavam como a eletricidade fluía através de materiais diferentes.

Na década de 1850, um dos grandes experimentadores da Alemanha e talentoso soprador de vidro, Heinrich Geissler, criou estas belas peças. Geissler retirou a maior parte do ar desses tubos de vidro. Depois inseriu pequenas quantias de outros gases dentro deles.

Depois, ele passou uma corrente elétrica por eles. Eles brilharam com cores deslumbrantes, e a corrente que fluía pelo gás parecia tangível. Embora tenham sido projetados apenas para o entretenimento, durante os 50 anos seguintes, os cientistas viram os tubos Giessler como uma chance de estudar como a eletricidade fluía.

Foram feitos esforços para extrair cada vez mais ar dos tubos. Poderia a corrente elétrica atravessar o nada? Atravessar o vácuo? Este é um raro filme do cientista britânico que criou um vácuo bom o bastante para responder a essa pergunta. Seu nome era William Crookes.

Crookes criou tubos como este. Ele retirava o máximo de ar que podia deixando-o mais próximo possível do vácuo. Então, ao passar uma corrente elétrica pelo tubo... ele notou um brilho luminoso na outra extremidade. Um feixe parecia estar incidindo pelo tubo e atingindo o vidro na outra extremidade. Finalmente, parecia que podíamos ver a eletricidade. O feixe ficou conhecido como raio catódico, e este tubo foi o precursor do tubo de raios catódicos usado em aparelhos de televisão por décadas.

O físico JJ Thompson descobriu que esses feixes eram compostos de minúsculas partículas de carga negativa e, por transportarem eletricidade, elas ficaram conhecidas como elétrons. Devido aos elétrons se moverem em apenas uma direção, da placa de metal aquecida para a placa de carga positiva na outra ponta, eles se comportavam da mesma forma que os cristais semicondutores de Bose. Mas enquanto os cristais de Bose eram naturalmente temperamentais, era preciso encontrar o ponto certo para que funcionassem, os tubos podiam ser fabricados de forma consistente.

Eles ficaram conhecidos como válvulas, e logo substituíram os cristais em aparelhos de rádio em todos os lugares. Estas descobertas levariam a uma explosão de novas tecnologias. A eletrônica do início do século XX resumia-se ao que podia ser feito com válvulas. A indústria do rádio foi construída com as válvulas, as primeiras TV's e computadores foram feitos com válvulas. O mundo da eletrônica foi construído com elas.

Após descobrir como manipular os elétrons que fluíam através do vácuo, os cientistas agora estavam ansiosos para entender como eles poderiam fluir através de outros materiais. Mas isso significava entender o que compunha os materiais... os átomos.

Nos primeiros anos do século XX entenderíamos finalmente a composição e o comportamento dos átomos. E assim, o que a eletricidade era em escala atômica. Na Universidade de Manchester, a equipe de Ernest Rutherford estudava a estrutura interna do átomo e produzia uma imagem para descrever a sua aparência. Essa revelação finalmente ajudaria a explicar uma das características mais intrigantes da eletricidade.

Em 1913, a imagem do átomo era a de um núcleo de carga positiva no meio cercado por elétrons orbitantes de carga negativa, em padrões chamados de camadas. Cada uma dessas camadas correspondia a um elétron com uma determinada energia. Com um impulso de energia, um elétron poderia saltar de uma camada interna para uma externa. E a energia tinha que ser adequada, caso contrário, o elétron não faria a transição. E esse impulso geralmente era temporário, pois o elétron retornava à sua camada original. Ao fazer isso, ele tinha que liberar seu excesso de energia desprendendo um fóton... e a energia de cada fóton dependia do seu comprimento de onda, ou, como a percebemos, a sua cor.

Compreender a estrutura dos átomos agora poderia explicar os grandes espetáculos de luz da natureza. Assim como os tubos de Geissler, o tipo de gás através do qual a eletricidade passa define a sua cor. O raio tem um tom azul por causa do nitrogênio em nossa atmosfera. Mais elevado na atmosfera, os gases são diferentes assim como a cor dos fótons que eles produzem, criando auroras espetaculares. Entender os átomos, como eles se encaixam nos materiais e como seus elétrons se comportam, era a chave final para entender a natureza fundamental da eletricidade.

Esta é uma máquina Wimshurst, usada para gerar carga elétrica. Os elétrons são friccionados nestes discos e iniciam um fluxo de eletricidade através dos braços de metal da máquina. Os metais conduzem a eletricidade porque os elétrons têm ligações fracas dentro dos seus átomos por isso podem se disseminar e serem usados para fluir como eletricidade.

Os isolantes, por outro lado, não conduzem eletricidade pois os elétrons estão fortemente ligados dentro dos átomos e não têm liberdade para se mover. O fluxo de elétrons e, portanto, da eletricidade, através dos materiais, era agora compreendido. Condutores e isolantes podiam ser explicados. O mais difícil de entender eram as estranhas propriedades dos semicondutores.

Nosso mundo eletrônico atual baseia-se nos semicondutores. Estagnaríamos sem eles. Jagadish Chandra Bose chegou perto de entendê-los em 1890, mas ninguém poderia prever o quão importantes se tornariam. Mas com a eclosão da II Guerra Mundial, as coisas estavam prestes a mudar. Aqui, em Oxford, este laboratório de física recém-construído foi imediatamente entregue ao esforço de pesquisa de guerra. Os pesquisadores daqui foram incumbidos de melhorar o sistema de radar britânico.

ESTE FILME É CONFIDENCIAL

O radar era uma tecnologia que usava ondas eletromagnéticas para detectar bombardeiros inimigos, e conforme melhorava sua precisão, ficou claro que as válvulas não estavam à altura da tarefa. Assim, a equipe teve que recorrer à antiga tecnologia em vez de válvulas, ela usou cristais semicondutores. Não utilizou o mesmo tipo de cristais que Bose desenvolveu, em vez disso, ela usou silício.

Este dispositivo é um receptor de cristal de silício. Há uma pequena espiral de tungstênio que toca a superfície de um pequeno cristal de silício. É incrível o quanto este dispositivo foi importante. Era a primeira vez que o silício era explorado como semicondutor, mas para que ele funcionasse, era preciso ser muito puro e os dois lados envolvidos na guerra investiram muitos recursos para purificá-lo.

Os britânicos tinham os melhores dispositivos de silício. Eles deviam ter algumas bobinas de silício já naquela época, enquanto nós estávamos apenas começando em Berlim. Os britânicos tinham melhores semicondutores de silício porque tinham a ajuda de laboratórios dos EUA, em particular, a famosa Bell Labs. E não demorou para que os físicos percebessem que se semicondutores podiam substituir as válvulas do radar, talvez pudessem substituir as válvulas em outros dispositivos, como amplificadores.

O tubo de vácuo simples, com sua corrente unilateral de elétrons, foi modificado para produzir um novo dispositivo. Ao colocar uma grade de metal no caminho dos elétrons e aplicar uma pequena tensão, uma mudança dramática na intensidade do feixe era produzida. Estas válvulas funcionavam como amplificadores, transformando um sinal elétrico muito fraco em um mais forte.

Um amplificador é algo muito simples. Pega-se uma pequena corrente e a transforma numa grande. Mas, em outro aspecto, isso muda o mundo, pois quando se pode amplificar um sinal, pode-se enviá-lo a qualquer lugar do mundo.

Logo que a guerra acabou, o especialista alemão Herbert Matare e seu colega, Heinrich Welker, começaram a construir um dispositivo semicondutor que poderia ser usado como amplificador elétrico. E aqui está! O primeiro modelo funcional que Matare e Welker fizeram. Se observarmos, podemos ver o minúsculo cristal e os fios que fazem contato com ele. Se passarmos uma pequena corrente através de um dos fios, isso permite que uma corrente bem maior saia pelo outro, ele agia como um amplificador de sinal.

Estes dispositivos minúsculos poderiam substituir válvulas grandes e caras em redes de telefonia de longa distância, rádios e outros aparelhos onde um sinal ínfimo requeria reforço. Matare imediatamente percebeu o que havia criado, mas seus chefes inicialmente não se interessaram. Não, até que um estudo foi publicado em um periódico anunciando uma descoberta da Bell Labs. Uma equipe de pesquisa dela havia se deparado com a mesma propriedade e agora anunciava o seu invento para o mundo. Eles o chamaram de transistor.

Eles o produziram em dezembro de 1947, e nós, no início de 1948. Mas assim é a vida. Chegaram mais cedo à propriedade. Mas, curiosamente, seus transistores não eram tão bons. Embora o dispositivo europeu fosse mais confiável do que o modelo mais "experimental" da Bell Labs, nenhum cumpria bem a sua promessa. Eles funcionavam, mas eram delicados demais. Assim, iniciava-se a busca por um modo mais robusto de amplificar sinais elétricos e o avanço se deu por acaso.

Na Bell Labs, o especialista em cristal de silício, Russell Ohl, notou que uma das barras de silício tinha uma propriedade estranha. Parecia ser capaz de gerar sua própria tensão e quando ele tentou medir isso ligando-o a um osciloscópio, notou que a tensão oscilava o tempo todo. A quantidade de tensão que gerava parecia depender da quantidade de luz que havia na sala. Assim, ao produzir uma sombra sobre o cristal, ele viu a tensão cair. Mais luz e a tensão subia. Além disso, quando ele ligou um ventilador entre a lâmpada e o cristal a tensão começou a oscilar com a mesma frequência que as pás do ventilador ao produzir sombras sobre o cristal.

Um dos colegas de Ohl logo percebeu que a barra tinha uma fenda, que formava uma ligação natural, e esta minúscula ligação natural em um bloco aparentemente sólido agia como a ligação bem mais delicada entre a ponta de um fio e um cristal que Bose descobrira.

Exceto que neste, ela era sensível à luz. A barra havia rachado, porque ambos os lados continham valores ligeiramente diferentes de impurezas. Um lado tinha um pouco mais do elemento fósforo enquanto o outro tinha um pouco mais de uma impureza diferente. O boro. E os elétrons eram capazes de se mover do lado do fósforo para o do boro, mas não vice-versa. Os fótons da luz brilhando sobre o cristal estavam expulsando elétrons dos átomos, mas eram os átomos das impurezas que estavam controlando esse fluxo. O fósforo tem um elétron para ceder... e o boro está disposto a receber outro, assim os elétrons tendem a fluir do lado do fósforo para o do boro. E só fluíam unilateralmente através da fenda.

O chefe da equipe de semicondutores, William Shockley, viu o potencial dessa ligação de mão única dentro de um cristal, mas como seria possível criar um cristal com duas junções, que pudesse ser usado como amplificador?

Outro pesquisador da Bell Labs, chamado Gordon Teal, vinha trabalhando numa técnica que possibilitaria isso. Ele descobrira um modo especial de produzir monocristais do semicondutor germânio. Neste instituto de pesquisa, eles produzem cristais semicondutores da mesma forma que Teal fazia na Bell Labs só que aqui, são produzidos bem maiores.

Na parte inferior deste tanque há um recipiente com germânio derretido tão puro quanto possível. Dentro dele, há alguns átomos com a impureza necessária para alterar suas propriedades condutoras. O braço giratório tem um cristal semente na parte inferior que foi mergulhado no líquido e será lentamente erguido. À medida que o germânio esfria e endurece, ele forma um cristal longo como um pingente de gelo, abaixo da semente. Toda a extensão é um único e belo cristal de germânio.

Teal percebeu que, conforme o cristal se desenvolve, outras impurezas podem ser adicionadas e misturadas. Isso cria um monocristal com finas camadas de diferentes impurezas criando junções dentro do cristal. Este cristal com duas junções era o sonho de Shockley. Aplicar uma pequena corrente através da finíssima seção média permite que uma corrente muito maior flua por toda a estrutura.

De um monocristal como este, centenas de minúsculos blocos podem ser cortados, cada um contendo as duas junções possibilitando que o movimento dos elétrons através delas seja controlado com precisão. Estes dispositivos minúsculos e confiáveis seriam usados em todo o tipo de equipamento elétrico. Não se pode ter os equipamentos eletrônicos atuais sem estes microcomponentes. E é engraçado, na verdade, pois quanto menores, mais confiáveis eles ficam. Todos saem ganhando. A equipe da Bell Labs ganhou o Nobel por sua invenção que mudou o mundo, enquanto o equipe europeia foi esquecida.

William Shockley deixou a Bell Labs, e em 1955 fundou seu próprio laboratório de semicondutores na zona rural da Califórnia, recrutando os melhores formandos em física do país. Mas o clima de festa não durou muito, porque era quase impossível se trabalhar com Shockley. As pessoas deixavam sua empresa porque não gostavam da forma como ele as tratava. O fato de Shockley ser tão insuportável originou o Vale do Silício. Ele dá início a todo esse processo de divisão e surgimento de novas empresas.

Tudo começou com Shockley sendo um ser humano tão revoltante. As novas empresas concorriam entre si para criar os mais modernos dispositivos semicondutores. Elas fizeram transistores tão pequenos que um grande número deles podia ser incorporado em um circuito elétrico impresso numa única placa de cristal semicondutor. Estes chips minúsculos e confiáveis podiam ser usados em todo tipo de equipamento elétrico, sobretudo em computadores. Iniciava-se uma nova era.

Hoje, os microchips estão em toda parte. Eles transformaram quase todos os aspectos da vida moderna, da comunicação, transporte e entretenimento. Mas, talvez, igualmente importante, nossos computadores se tornaram tão poderosos que estão nos ajudando a compreender o universo em toda a sua complexidade. Um único microchip como este pode conter em torno de quatro milhões de transistores.

É incrível o quanto a tecnologia avançou em 60 anos. É fácil pensar que com os grandes avanços que fizemos no conhecimento e exploração da eletricidade, haja pouca coisa para se aprender sobre ela. Mas estaríamos enganados. Por exemplo, criar circuitos cada vez menores implica que uma característica da eletricidade, que já era conhecida há mais de um século, tornou-se cada vez mais problemática: a resistência.

Um chip de computador deve ser continuamente resfriado. Se retirarmos o cooler, eis o que acontece. Que aumento! De 100, 120, 130 graus... 200 graus, e ele para. Isso só levou alguns segundos e o chip fritou. Conforme os elétrons circulam pelo chip, eles não se deslocam livremente. Eles estão colidindo nos átomos de silício, e a energia perdida por tais elétrons está produzindo calor. Por vezes, isso foi útil. Inventores criaram aquecedores elétricos e fornos, e quando algo apresentava brilho incandescente, obtinha-se uma lâmpada. Mas a resistência em aparelhos eletrônicos, e em linhas de transmissão, gera o maior desperdício de energia e é um grande problema.

Acredita-se que a resistência desperdiça até 20% de toda a eletricidade que geramos. É um dos maiores problemas dos tempos modernos. E continua a busca por um meio de solucionar o problema da resistência. O que entendemos como temperatura é na verdade uma medida da quantia de átomos que vibram em um material. E se os átomos estão vibrando, então os elétrons que estão correndo têm maior chance de chocar-se com eles.

Em geral, quanto mais quente o material, maior será a sua resistência elétrica, e quanto mais frio ele é, menor a resistência. Mas o que acontece se resfriarmos algo perto do zero absoluto, a -273 graus Celsius? No zero absoluto, não há calor algum, portanto, os átomos não se movem. O que acontece com o fluxo de eletricidade? O fluxo de elétrons?

Usando um dispositivo especial chamado criostato, que pode manter tudo próximo ao zero absoluto, podemos descobrir. Dentro deste criostato, nesta bobina, está o mercúrio, o famoso metal líquido. Ele faz parte de um circuito elétrico. Este equipamento aqui mede a resistência no mercúrio, mas veja o que ocorre quando eu desço o mercúrio até a parte mais fria do criostato. Aí está. A resistência caiu até o zero. O mercúrio, como muitas substâncias hoje conhecidas, tem esta propriedade de se tornar um supercondutor, significa que não apresenta nenhuma resistência ao fluxo de eletricidade. Mas esses materiais só funcionam quando estão supercongelados.

Se pudéssemos usar um material supercondutor em nossas linhas de transmissão e aparelhos eletrônicos, evitaríamos a perda de tanta energia elétrica valiosa através da resistência. O problema era que os supercondutores tinham de ser mantidos a temperaturas muito baixas. Então, em 1986, foi feito um grande avanço. Em um pequeno laboratório perto de Zurique, na Suíça, físicos da IBM descobriram supercondutividade em uma nova classe de materiais, que está sendo classificado de um dos mais importantes avanços científicos em décadas.

Este é um bloco do mesmo material fabricado pelos pesquisadores na Suíça. Ele não parece muito extraordinário, mas se o esfriarmos com nitrogênio líquido, algo especial acontece. Ele se torna um supercondutor, e como a eletricidade e o magnetismo estão tão intimamente ligados, isso lhe dá propriedades magnéticas igualmente extraordinárias. Este ímã está suspenso, levitando sobre o supercondutor. O emocionante é que, embora frio, este material está muito acima do zero absoluto. Estes campos magnéticos são tão fortes que podem suportar não apenas o peso deste ímã, mas devem também suportar o meu peso. Estou prestes a levitar. É uma sensação muito estranha.

Quando este material foi descoberto em 1986, ele criou uma revolução. Não apenas ninguém o considerara como um supercondutor, mas ele fazia isso a uma temperatura muito maior do que se achava possível. Estamos bem perto de conseguir supercondutores à temperatura ambiente. Ainda não chegamos lá, mas um dia, um novo material será descoberto, e quando o pusermos em nossos equipamentos, poderemos construir um mundo mais barato, melhor e mais sustentável.

Hoje, os materiais produzidos que exibem esse fenômeno o fazem na temperatura que encontramos em nosso freezer. Mas estes novos supercondutores não podem ser completamente explicados pelos teóricos. Assim, sem conhecimento completo, os experimentalistas muitas vezes são guiados tanto pela sorte como pelo conhecimento científico adequado.

Recentemente, um laboratório no Japão fez uma festa na qual acabaram combinando seus supercondutores com uma série de bebidas alcoólicas. Inesperadamente, descobriram que o vinho tinto melhora o desempenho dos supercondutores. A pesquisa elétrica hoje, tem o potencial, mais uma vez, de revolucionar nosso mundo, se os supercondutores à temperatura ambiente puderem ser descobertos.

Nossa dependência do poder da eletricidade só está aumentando. E quando entendermos completamente como explorar os supercondutores, um novo mundo elétrico estará sobre nós. Ele nos levará a um dos períodos mais prolíficos de descoberta e invenção humanas, um novo conjunto de ferramentas, técnicas e tecnologias para, mais uma vez, transformar o mundo.

A eletricidade mudou nosso mundo. Há apenas algumas centenas de anos, ela era vista como uma maravilha misteriosa e mágica. Em seguida, ela saiu dos laboratórios, com uma série de experiências estranhas e maravilhosas, acabando por ser dominada e utilizada. Ela revolucionou as comunicações, primeiro através de cabos, e depois, como ondas, através dos campos de longo alcance da eletricidade. Ela abastece e ilumina o mundo moderno.

Hoje, mal conseguimos imaginar a vida sem eletricidade. Ela define a nossa era, e estaríamos completamente perdidos sem ela. Mesmo assim, ela ainda nos oferece mais. Mais uma vez, estamos diante do início de uma nova era de descoberta, de uma nova revolução. Mas sobretudo, há uma coisa que todos que lidam com a ciência da eletricidade sabem... a sua história ainda não acabou.