assunto: imagem
CCD: o olho da câmera
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
Você já ouviu falar sobre ele inúmeras vezes e provavelmente tem uma câmera de vídeo ou uma máquina fotográfica digital que o utiliza para registrar as imagens: o CCD. Vamos efetuar aqui um passeio por esse engenhoso dispositivo criado pela eletrônica, que revolucionou a captação do vídeo e mais recentemente, da fotografia.
Para isso, vamos precisar de uma calculadora eletrônica.... e antes que você diga que a única coisa que você não gostaria de fazer agora é contabilizar quanto vai custar a sua próxima produção, fique sabendo que a calculadora não será utilizada para fazer contas. Na verdade, você vai sair em busca daquele tipo de calculadora que funciona com energia solar, ou seja, que pode funcionar sem pilhas ou baterias. E vai reparar que ao lado do display onde são mostrados os números, existem algumas janelinhas escuras, uma ao lado da outra. O que são essas janelinhas? São foto-células, o princípio do funcionamento do CCD.
O CCD é um minúsculo painel (um dos tipos mais comuns de CCD tem 1/3 pol. de medida na diagonal, ou seja, apenas 6,7 mm) composto por milhares de pontos sensíveis à luz. Cada um destes pontos é uma miniatura da foto-célula utilizada pelas calculadoras. Neste tipo de calculadora, a eletricidade é gerada pelas foto-células, que convertem luz em energia. No painel do CCD existem portanto milhares de minúsculas foto-células gerando cargas elétricas, que são descarregadas uma a uma, em sequência, no processo de leitura descrito adiante. Essas cargas formam uma "fila" na saída do painel, acopladas umas às outras como os vagões de um trem, daí a origem do nome "CCD": Charge Coupled Device (dispositivo de cargas acopladas).
Inventado nos anos 70, o CCD substituiu os antigos e desajeitados tubos que eram utilizados até então dentro das câmeras de vídeo, denominados Vidicon. O CCD é o chip sensor responsável por registrar a imagem 'vista' por uma câmera de vídeo: as lentes da câmera projetam sobre sua superfície a imagem, que é convertida em impulsos elétricos gerando assim o sinal de vídeo.
Quanto mais luz incide sobre o CCD, mais energia é gerada: a intensidade de corrente criada é proporcional à intensidade da luz. Agora pense em uma paisagem qualquer e veja que uma imagem fotográfica é formada por distintas áreas, claras e escuras; ao ser projetada sobre o CCD, fará com que alguns pontos recebam mais luz, outros menos, outros quase nenhuma, de acordo com o desenho da imagem. Imagine agora que em um dado instante, cada ponto do CCD (ou seja, cada micro foto-célula) tenha a intensidade da corrente que ele está gerando medida e anotada em algum lugar. Imagine agora um dispositivo em forma de painel, composto por vários pontos que, recebendo determinada intensidade de corrente, brilhem de acordo com esta intensidade. Será possível então reproduzir nesse painel, ponto por ponto, a imagem registrada no CCD.
Este dispositivo é a tela de um aparelho de TV e o processo de anotar (armazenar) e posteriormente reproduzir as intensidades de corrente é o processo de gravação e reprodução em uma fita de vídeo. Percebeu como, a grosso modo, um é o inverso do outro?
Porém em vídeo, como as imagens estão em movimento, não basta registrar estas intensidades de corrente em determinado instante e sim a todo (ou quase todo) instante. Para tanto, um circuito eletrônico 'varre' periodicamente o CCD, percorrendo-o e 'anotando' em cada ponto do mesmo (micro foto-célula) qual a intensidade da corrente naquele momento. O CCD é lido em linhas horizontais, da esquerda para a direita e de cima para baixo.
À medida que esta varredura é feita, uma sequência imensa de valores diferentes de intensidade de corrente é produzida pelo circuito leitor do CCD (o "trem" de cargas acopladas descrito acima); para registrar esta sequência de cargas, uma fita magnética passa em velocidade constante sobre um dispositivo de gravação (cabeça de vídeo). Um processo eletrônico transforma variações de intensidade de corrente (os diferentes valores das cargas) em variações equivalentes de campo magnético, magnetizando a fita. Pronto ! Aí está, registrada na fita, a imagem projetada no CCD.
O processo inverso irá reproduzir esta imagem registrada na fita: ao ser a mesma movimentada na mesma velocidade sobre um dispositivo leitor de gravação (cabeça de vídeo) as variações de intensidade de campo magnético serão convertidas pelo circuito eletrônico em variações de intensidade de corrente. Um canhão de elétrons percorrerá, também em linhas horizontais da esquerda para a direita e de cima para baixo, uma trajetória emitindo mais ou menos elétrons (conforme a intensidade da corrente 'lida' na fita) em direção a parte interna do tubo de imagem da TV que, revestido de uma substância capaz de emitir mais ou menos luz conforme receba mais ou menos elétrons, formará na tela a mesma imagem registrada pelo CCD.
Você já viu aqueles mosaicos de pastilhas coloridas em que o artista forma com as mesmas uma imagem perfeita quando observada à distância? Então, cada um dos pontos sensíveis à luz no CCD assemelha-se a uma pastilha do mosaico: imagine pastilhas de mesmo tamanho alinhadas simetricamente lado a lado. Só que ao invés de "pastilha", seu nome é "pixel". Como cada pixel ocupa uma determinada área da imagem, quanto mais pixels no CCD maior o detalhamento da imagem registrada.
Percebeu como até aqui ninguém falou na palavra "digital"? O CCD é lido pelo circuito eletrônico linha a linha e o resultado é um sinal analógico, uma sequência de valores de intensidades dos sucessivos pixels dispostos ao longo das linhas. É por isso que o CCD não é um dispositivo digital: ele é um dispositivo analógico. Isso quer dizer que aquela sofisticada câmera digital que você acaba de comprar possui um chip analógico em seu interior e que o primeiro sinal gerado pela câmera a partir da imagem projetada pelas lentes é analógico? Exatamente !!
E agora vem o segredo: a partir deste ponto, o sinal analógico pode ser gravado diretamente na fita (câmeras analógicas) ou então digitalizado e a seguir gravado em fita / disco (câmeras digitais). Neste caso, a conversão analógico/digital é efetuada em tempo real por um circuito denominado A-D converter (Analogue to Digital Converter), localizado dentro da câmera.
Tudo bem, você aprendeu como a imagem é formada...mas... e a questão das cores? A foto-célula presente na calculadora não consegue distinguir cores, apenas reage à luminosidade como um todo, maior ou menor. Alguns artifícios são adotados para conseguir o registro de imagens em cores. O mais simples (e barato) consiste em recobrir o CCD com uma máscara de micro janelas coloridas, nas cores básicas do sistema RGB (vermelho, verde, azul), alternando-se as cores através da superfície do CCD. Desta forma, 1/3 dos pontos do CCD estará coberto por um filtro vermelho e somente se sobre este ponto houver alguma parcela de cor vermelha a foto-célula situada abaixo do mesmo a registrará. O mesmo acontecerá para as outras cores. O circuito eletrônico então fará a leitura separada das células, conforme a cor, gerando três sinais diferentes. Estes sinais podem agora serem gravados de maneira analógica ou então serem convertidos para o formato digital sendo a seguir gravados.
O processo acima descrito acarreta perdas na definição da imagem (ocupa 1/3 dos pontos para cada cor) entre outros problemas. Um processo mais sofisticado (e caro) utiliza 3 CCDs, cada um para registro independente de uma das 3 cores básicas. Um sistema de prismas separa a imagem em 3; a seguir cada imagem passa através de um filtro de uma das cores básicas e é projetada sobre o CCD correspondente. A qualidade da imagem é muito superior neste processo, embora de maneira geral seja necessária mais luz para o registro da mesma, uma vez que ela é dividida no processo de registro no CCD.
As câmeras do segmento doméstico e semi-profissional geralmente possuem um único CCD, enquanto que outras de segmento semi-profissional e todas do segmento profissional possuem 3 CCDs. Somente a quantidade total de pixels no(s) CCD(s) de duas câmeras não serve de parâmetro de comparação para se deduzir a qualidade da imagem; uma câmera com 1 CCD contendo mais pixels do que a soma dos pixels de outra com 3 CCDs não necessariamente produzirá imagem melhor, porque a quantidade de pixels é apenas um dos fatores que contribuem para a mesma.
Existem tamanhos padrão usuais para a medida da diagonal de CCDs, medida em polegadas: 2/3 pol, 1/2 pol, 1/3 pol, 1/4 pol e 1/6 pol. Os primeiros CCDs continham pixels maiores do que os atuais e podia-se dizer que quanto maior o tamanho de um CCD melhor a imagem produzida. Atualmente no entanto a tecnologia é capaz de compactar cada vez mais um número maior de pixels em CCDs de dimensões menores (1/4 pol, 1/6 pol) de forma que nem sempre um CCD menor produz imagem com menor qualidade do que um maior.
Pronto! Agora que você já sabe como funciona o CCD, aproveite que está com a calculadora na mão
CCDs x CMOSs
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
Computadores estão hoje associados em nossas mentes indiscutivelmente ao conceito "digital". E isso é verdade, todo processamento de informações digitais, sejam imagens, sons, textos e outras mídias é efetuado através de computadores. Essas mesmas máquinas que nossos avós viram surgir com o nome de "cérebros eletrônicos" funcionam, desde o início, com a aplicação de técnicas e conceitos bem simples da Eletrônica. Basicamente a mesma Eletrônica utilizada para montar uma placa de circuito para fazer funcionar o radinho de pilha que nossos avós também usavam está hoje dentro de um computador. Os mesmos transistores, capacitores, resistores e outros componentes que estavam ali também estão na placa mãe do micro da estação de edição. A diferença - prá lá de significativa - é que entrou em cena a miniaturização na fabricação dos circuitos impressos, propiciada inicialmente com as chamadas pastilhas de silício. Com isso, milhares e milhares desses transistores, capacitores, etc.. puderam ser colocados em uma área tão pequena como a de uma moeda de 1 centavo, permitindo a montagem de circuitos extremamente complexos.
Mas essa Eletrônica de que estamos falando não tem nada de digital e sim de analógica: um transistor não é digital. O conceito "digital" surge quando esses circuitos são colocados para manipular números, mais precisamente os famosos "0"s e "1"s, correspondentes aos estados "desligado" e "ligado". Assim nasceram os computadores, máquinas extremamente capazes de manipular esses números com incrível velocidade.
Com o surgimento dos computadores, surgiu também uma necessidade: armazenar temporariamente algumas dessas informações. Foram então desenvolvidos alguns circuitos especiais (chamados "chips", em alusão às pastilhas de silício) de memória. E um desses chips de memória foi o CCD.
Sim, o conhecido Charge Coupled Device começou como um simples chip de memória! A inovação que ele trazia era a grande facilidade de transferir e armazenar cargas elétricas em seu interior e depois recuperá-las de volta. Os dados numéricos, na forma de cargas elétricas, eram armazenados em acumuladores dispostos em fileiras, uma abaixo da outra. Um circuito eletrônico (analógico) fazia a gravação e leitura dessas cargas, lendo uma a uma, fileira após fileira, como os livros armazenados em uma estante com várias prateleiras. Daí o nome "dispositivo de cargas acopladas" (Charge Coupled Device), pois na saída, as informações vinham como os livros retirados da estante para consulta e colocados em uma mesa: uma fileira de livros, um após o outro, um ligado, "acoplado" ao outro.
A descoberta posterior no entanto de tecnologias melhores para armazenamento de dados, como o EEPROM (Electrically Erasable Programmable Read Only Memory) fez com que o CCD se tornasse obsoleto para essa função. Por outro lado, a grande facilidade de transferência de cargas elétricas do mesmo sugeriu seu aproveitamento para outra função: o registro (captura) de imagens formadas em uma grade de pixels. Nos anos 70, Boyle e Smith tiveram a idéia de montar uma grade de células fotoelétricas em miniatura, formando um mosaico. Essas células, também um componente utilizado em Eletrônica (portanto analógico), utilizavam um efeito descoberto pelo Einstein (que lhe daria o Nobel de 1905), o de transformar luz em energia elétrica.
O que Boyle e Smith pensaram foi: uma imagem é formada por uma série de pontos claros e escuros, em diversas intensidades; se montarmos um mosaico com milhares dessas células e sobre ele, com o auxílio de uma lente projetarmos a imagem, cada célula irá gerar mais ou então menos eletricidade, conforme receba ali mais ou então menos luz. O problema era: como armazenar essa eletricidade? Pensaram então em associar a cada célula um minúsculo acumulador (outro componente da Eletrônica). Aliás, cada uma desses pontos - célula recebeu o nome de pixel.
Mas faltava ainda outra parte da história: ao projetar a imagem sobre esse mosaico, cada célula iria gerar continuamente eletricidade, que por sua vez iria ser acumulada pouco a pouco nesses acumuladores. Depois de um bom tempo, todos os acumuladores estariam cheios e com isso perderia-se a diferenciação de pontos claros e escuros que formam a imagem. O que faltava era ler, rapidamente, em uma "passada" de alto a baixo, todos esses acumuladores. Boyle e Smith perceberam então que poderiam utilizar o velho chip de memória CCD associado a essas células. Ligando cada uma delas células a um acumulador de carga do próprio CCD, teria-se a vantagem da grande facilidade de leitura dessas cargas (transferência) propiciada pelo circuito eletrônico associado ao CCD, como vimos acima.
Foi criado assim um novo chip, que associava uma grade de minúsculas células fotoelétricas a um chip CCD. Com o passar do tempo, como o CCD tinha deixado de ser utilizado como memória em computadores e passava cada vez mais a ser utilizado nesta outra função - de registro de imagens, seu nome começou a ser associado a "chip de registro de imagens". O primeiro CCD para registro de imagens foi comercializado em 1973.
Daí a passar seu uso para as câmeras de vídeo - ainda analógicas na época, como as VHS, Betacam, etc... foi um pulo. Substituia-se os grandes e pesados tubos de imagem que essas câmeras utilizavam por um pequeno chip, leve e mais eficiente. O circuito eletrônico, conectado ao CCD através de fios, fazia a varredura ("leitura") das células de tempos em tempos, mais precisamente (no padrão NTSC) cerca de 60 vezes por segundo, lendo linhas alternadas (prateleiras alternadas na estante) gerando assim os campos, que combinados formavam os conhecidos 30 quadros por segundo. Para ser mais exato, embora dizemos 30 quadros por segundo, a cadência verdadeira é 29,97 quadros por segundo, "arranjo" feito pelos engenheiros para acomodar o sinal colorido no já tradicional sinal P&B, mas isso já é outra história.
Voltando a nossa história, podemos ainda dizer que, antes mesmo do desenvolvimento do velho CCD como chip de memória, um outro chip já existia: o CMOS (Complementary Metal Oxide Semiconductor). Ambos foram em uma fase inicial, empregados em circuitos de armazenamento de dados em computadores. Quando Boyle e Smith faziam experiências com a sanduíche de chips (células fotoelétricas e acumuladores) perceberam que o chip CCD de memória saía-se melhor na função proposta do que o chip CMOS. O CMOS foi então colocado de lado, embora chips sensores de imagens também tenham sido construídos posteriormente com ele. No entanto, como sua imagem foi sempre inferior (O CCD apresentou sempre uma melhor resolução dos tons de luminosidade do que o CMOS), nunca foi utilizado em câmeras de vídeo para videoprodução, tendo sido relegado ao uso em câmeras baratas de vigilância durante vários anos.
Porém o CMOS não foi completamente esquecido: uma característica sua que o CCD não possuía fez com que houvesse um contínuo interesse em um desenvolvimento futuro deste sensor: a sua resistência aos raios cósmicos. Satélites e suas câmeras seriam beneficiários diretos desta característica de resistência à radiação cósmica. Os anos passaram-se no entanto, e sua evolução continuou ainda lenta. Porém, após um período de estagnação, a tecnologia envolvida no projeto e fabricação dos CMOS repentinamente deu um salto muito grande, aproximando cada vez mais a qualidade de suas imagens da qualidade da imagem dos CCDs para aplicações semelhantes de ambos, como câmeras de vídeo comuns por exemplo. Como isso foi possível?
O funcionamento do CMOS é idêntico ao do CCD no princípio do processo de captura das imagens. Também existe ali a grade de células fotoelétricas e também existem os acumuladores de cargas associados a cada pixel (célula). A diferença começa a partir desse ponto. No CCD é um circuito eletrônico externo ao mesmo quem faz a leitura das cargas armazenadas e todo o controle desse processo de leitura. Na saída do CCD o sinal das cargas precisa ser amplificado e tratado individualmente, o que exige uma certa complexidade desse circuito eletrônico de controle. Já no desenho do CMOS este amplificador está associado individualmente a cada célula, uma a uma, ali mesmo no interior do chip de imagem. O problema é que como cada célula possui o sensor fotoelétrico, mais o acumulador e mais o amplificador, acaba necessitando de mais espaço e com isso, cabem menos células por área, ou seja, o chip tem menor resolução. Tinha.
O que propiciou o grande salto na qualidade do CMOS foi o processo de miniaturização. A limitação antes existente, agora superada, era a de conseguir confeccionar o chip CMOS com a mesma quantidade imensa de pixels existente em um CCD, no mesmo espaço, o que a tecnologia de miniaturização está sendo capaz de oferecer cada vez mais. Em aplicações especiais, chips CMOS de altíssima definição já foram empregados no lugar de CCDs no telescópio Hubble.
Ao equiparar-se com o CCD, o CMOS passa a poder ser comparado com ele e apresentar suas vantagens. Em comparação com o CCD, o chip CMOS apresenta consumo bem menor de energia (e consequentemente menor aquecimento) além de utilizar menos elementos eletrônicos (transístores por exemplo) em sua montagem - o chip é menor e mais compacto do que o CCD. E este menor tamanho possibilita a confecção de câmeras também menores.
Chips CMOS apresentam menor signal-to-noise (ruído na imagem) em comparação aos CCDs. Isto porque, ao contrário do que ocorre nos CCDs, onde o sinal de cada pixel é passado para seu vizinho até ser direcionado, na saída do chip, a um amplificador único, no CMOS cada pixel possui, como vimos, seu próprio amplificador independente de sinal de imagem. Esse processo de leitura acarreta menor interferência na imagem.
O chip CMOS já é empregado em algumas câmeras do segmento semi-profissional e existem previsões de que no futuro estes chips suplantarão os CCDs nas câmeras comuns de vídeo. O processo de fabricação do CMOS tende a ser mais barato do que o do CCD, pelo CMOS possuir um circuito eletrônico mais simples e principalmente porque a tecnologia CMOS já é empregada hoje, em larga escala, com algumas diferenças, na fabricação de circuitos integrados de microcomputadores. Assim, um chip CMOS de imagem pode ser fornecido por uma quantidade muito maior de empresas do que um chip do tipo CCD, fabricado hoje por poucas empresas (Sony, Kodak, Matsushita, Fuji e outras), barateando assim seu custo (economia de escala).
Uma das diferenças do CMOS em relação ao CCD em câmeras de vídeo é que enquanto o CCD exige outros chips paralelos fora do mesmo para efetuar as tarefas do processo de captura da imagem (como a redução dos "ruídos" da imagem (noise reduction), o processamento do sinal (DSP - Digital Signal Processor) e a conversão analógico-digital (ADC - Analogical Digital Conversion)), no CMOS todas essas tarefas são executadas dentro do próprio chip. Em outras palavras, enquanto o CCD só faz a conversão da luz em cargas elétricas e as transfere para fora do chip para que todo o processamento da imagem seja feito, o CMOS faz tudo isso dentro do chip. Isso se traduz em menor tamanho ocupado pelo conjunto (menor espaço ocupado dentro da câmera por exemplo) e também permite tornar programável diversas dessas funções (conferindo flexibilidade ao chip, podendo ser programado para várias situações diferentes).
Outra diferença é que o CCD tradicionalmente possui melhor desempenho em condições precárias de luz em comparação ao CMOS, o que, no entanto, também está sendo superado pelo desenvolvimento tecnológico. O aumento no desempenho e qualidade dos sensores de imagem CMOS, tornará seu uso corrente em câmeras de alta definição (HD e HDTV) refletindo-se na diminuição de seu custo final.
Resolução dos formatos de vídeo
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
Folheando revistas, muitas vezes você deve ter visto anúncios com a informação de que determinada câmera de vídeo possuía 700 ou 800 linhas de resolução. Talvez você tivesse lembrado na ocasião de já ter ouvido falar sobre as 240 linhas de resolução do formato analógico VHS, ou então que o formato analógico SVHS era superior ao VHS por ter cerca de 400 linhas de resolução. Por outro lado, certamente você também já ouviu dizer que o sistema NTSC trabalha com 525 linhas... e que pelo menos um dos padrões da TV de alta definição, a HDTV, trabalha com 1.125 linhas... mas afinal, o que significa tudo isso? Como interpretar essas informações sobre linhas e tirar conclusões práticas sobre elas? Se este assunto parece confuso para você, ao término deste artigo você conseguirá 'desembaraçar' essas linhas, entendendo os principais modos de se medir a resolução de um determinado formato de vídeo.
Em primeiro lugar é necessário fazer uma diferenciação: a resolução em linhas de uma determinada imagem de vídeo é medida em linhas horizontais e em linhas verticais. Vamos então inicialmente falar sobre o primeiro tipo, o da resolução de linhas verticais. Imagine uma casa e dentro dela você, em uma sala, observando a imagem da rua através de uma persiana, com suas lâminas horizontais quase que totalmente abertas. Você está a um ou dois metros de distância da janela e o que você vê? A imagem da rua, claro, mas... se você prestar atenção, vai perceber que a imagem está recortada pelas lâminas da persiana. Na verdade, é como se você tirasse uma foto da rua e com uma caneta preta de ponta grossa traçasse várias retas paralelas, uma abaixo da outra, deixando um intervalo entre elas. Assim é, mais ou menos, a grosso modo, como a câmera de vídeo vê a realidade. Os pixels no CCD são dispostos em fileiras horizontais, formando linhas uma abaixo da outra. Entre a fileira de pixels de cima e a fileira de baixo existe uma pequena separação: são as linhas pretas que você desenhou na foto.
No sistema de vídeo NTSC, criado na década de 40, a quantidade de linhas verticais é sempre 525. Isto é um padrão, que pertence ao sistema e não depende da câmera ou qualquer outro dispositivo utilizado. Diz-se assim que a resolução vertical deste sistema é de 525 linhas. Outros sistemas possuem números diferentes: enquanto que o PAL-M (utilizado só no Brasil) também possui 525 linhas de resolução vertical, o SECAM e PAL-G por exemplo possuem 625 linhas de resolução vertical. Por ser um padrão fixo dentro de um mesmo sistema/país, não varia portanto com a qualidade do equipamento utilizado.
Você não verá no entanto todas essas linhas ao observar a imagem no monitor ou televisor. Em parte porque nem todas as linhas são exibidas na tela do monitor / aparelho de TV: no sistema NTSC por exemplo, 42 destas linhas são reservadas para conter informações que orientam o desenho das imagens na tela, como por exemplo a que diz que o feixe de elétrons do monitor deve retornar à parte superior esquerda da mesma para iniciar o desenho de uma nova imagem. Estas linhas especiais, não exibidas normalmente, compõem um bloco negro (faixa horizontal) que pode ser visto rolando verticalmente pela tela quando o ajuste vertical do monitor não está correto:
Assim, restam 483 linhas, que é o número máximo que um aparelho de TV pode exibir no sistema NTSC. Por outro lado, se você estiver olhando um aparelho de TV e não um monitor verá menos linhas ainda: algumas não aparecem devido à máscara que circunda a tela, utilizada no gabinete do aparelho (coisa que não acontece nos monitores utilizados em videoprodução).
O segundo tipo sim, diferencia a qualidade do formato de vídeo a ser considerado e os equipamentos que trabalham com ele: a resolução horizontal. Chegou a hora de você recolher totalmente a persiana da sala e abrir a janela. De lá, você vai imaginar que consegue ver a grade que faz a separação da rua com o jardim da sua casa. Imagine uma dessas grades com várias barras verticais, como se fosse uma cerca com estacas fincadas no chão. Um pouquinho mais de imaginação agora: você está com sua câmera de vídeo apontada para a grade. Quanto mais estacas verticais próximas umas das outras a grade possuir, mais estacas aparecerão na tela do monitor de vídeo / aparelho de TV. Imagine essa grade vista a uma certa distância: aumentando a quantidade de estacas, ficará cada vez mais difícil na tela distinguí-las umas das outras - isto depende da capacidade maior ou menor do equipamento mostrar individualmente finos traços verticais na imagem. A resolução horizontal mede o número máximo de 'estacas' , ou seja, de traços verticais que é possível distinguir em uma dada imagem. Em outras palavras, quanto maior a capacidade de um dado sistema de imagem de representar linhas verticais distintas, maior será sua resolução horizontal (e portanto melhor a qualidade da imagem desse sistema).
A resolução horizontal depende do formato de vídeo utilizado. Diferentes formatos de vídeo oferecem diferentes resoluções máximas horizontais: 240 linhas no formato analógico VHS, 400 linhas no formato analógico SVHS, 530 linhas no formato digital Mini-DV, etc...). Mas por que o termo "resolução máxima"? Porque é a maior resolução suportada pelo formato, o que não quer dizer que todos os equipamentos fabricados para trabalhar com ele a atinjam: aqui, quanto melhor a qualidade do equipamento, mais ele se aproximará do valor máximo de resolução horizontal. Equipamentos profissionais normalmente superam esse valor máximo de resolução. A resolução horizontal das imagens transmitidas por estações de TV é de cerca de 330 linhas. Embora uma fita VHS comum seja capaz de exibir somente 240 linhas e a programação da TV somente 330, imagens capturadas com câmeras com maior número de linhas (700 por exemplo) apresentam resultado final em 240 / 330 linhas muito melhor do que as capturadas com câmeras com menor resolução. Isso porque durante os inúmeros processos de manipulação (edições, acréscimo de efeitos, transmissões, etc...) que a imagem (mesmo digital) sofre desde a captura até chegar ao público, sempre ocorrem perdas. A idéia é iniciar com um original melhor para ter um resultado final também melhor.
Como a resolução horizontal varia de equipamento para equipamento, existem diversos métodos para fazer a avaliação (contagem) do número de linhas horizontais mostradas. Um dos mais antigos, ainda da época da TV em preto e branco, emprega uma figura especial contendo diversas linhas horizontais e verticais que se afastam a partir de um ponto central, denominada chart de resolução EIA1956, padronizada pela EIA (Electronic Industries Association - EUA), da qual um trecho é mostrado abaixo:
Na figura, as linhas divergentes contém uma numeração ao lado das mesmas indicando quantas linhas existem naquela posição. A câmera é apontada para a figura, tendo a seguir seus controles (foco, abertura, etc...) regulados da melhor maneira possível. Em seguida a imagem gerada pela câmera é observada em um monitor de alta resolução - sua resolução deve ser maior do que a da câmera, para permitir a medição. Linhas verticais no desenho permitem avaliar a resolução horizontal (lembre-se da cerca) e linhas horizontais permitem avaliar a resolução vertical (lembre-se da persiana). Como as linhas vão pouco a pouco aproximando-se no desenho, a partir de determinado ponto não é mais possível distinguí-las individualmente. Anota-se então a resolução indicada no desenho: esta é a resolução (horizontal / vertical) da câmera / sistema.
A avaliação obtida com o chart no entanto é aproximada, pela subjetividade em si (diferentes observadores podem ter diferentes avaliações) e pela dificuldade em determinar exatamente o ponto a partir do qual as linhas não podem ser mais distinguidas. Métodos mais precisos utilizam outros meios, como um aparelho denominado osciloscópio, que obtém a leitura da resolução horizontal a partir da medida da frequência do sinal (largura de banda).
A resolução medida tanto pelo método do chart quanto via osciloscópio refere-se à luminância, ou seja, a parte do brilho da imagem (excluindo a cor). A resolução relativa à parte de cor é sempre bem menor do que a do brilho, uma vez que o olho humano é menos sensível a este tipo de informação do que ao outro. Nas câmeras do segmento consumidor por exemplo este tipo de resolução gira em torno da metade do valor da resolução de luminância.
E agora que você já sabe como funciona a resolução vertical e horizontal de um sinal de vídeo, uma curiosidade: estudos mostram que na prática a resolução real observada no monitor / aparelho de TV é menor do que a obtida nas medições ( resolução horizontal / resolução vertical ) porque na maioria das vezes a imagem observada está em movimento. Assim, para a resolução vertical, supondo a imagem de uma escada sendo vista através das lâminas da persiana, podemos imaginar que os degraus desta escada coincidam exatamente com a posição das frestas da persiana (a parte entre as lâminas); deste modo, o número máximo de degraus observáveis coincide com o número de frestas da persiana, que é igual ao número de linhas na tela.
Porém, se o observador mover sua cabeça ao longo de um eixo vertical para cima ou para baixo, passará em uma dada posição a não enxergar mais os degraus, encobertos que estarão pelas lâminas da persiana. Na imagem da TV ocorre um processo parecido, mas quem se move não é a cabeça do expectador e sim a própria imagem. Matemáticos concluiram, após cálculos estatísticos, que na persiana hipotética, em média 70% dos degraus da escada observada sempre seriam vistos, independentemente da posição do observador. Transpondo este cálculo para a TV, as 483 linhas do padrão NTSC poderiam mostrar na realidade uma resolução real de 483 x 0,7 = 338 linhas (70% de 483).
Mas, deixando os matemáticos para lá, o importante não é o valor exato da resolução obtida ou até mesmo o valor da resolução percebida pelo expectador e sim entender os conceitos de resolução vertical e horizontal para poder fazer comparações
assunto: sinal de vídeo
Algumas considerações sobre o MPEG2
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
O mundo está em lenta, porém constante evolução: muitas vezes sem se dar conta, vamos abandonando coisas que fazíamos no passado para adaptar-se aos novos tempos. Como comprar caixinhas de filmes em rolo, na banca da esquina, para colocar na máquina fotográfica. Seja no celular com câmera ou na própria câmera digital, não nos preocupamos mais com isso. Mas, nessa época, no auge da fotografia analógica, era comum sabermos pedir um ou outro tipo de filme dizendo por exemplo "filme de ASA 100", ou então "filme de ASA 400". Havia ainda outra especificação, muito popular na Alemanha, a DIN - com valores tão semelhantes quanto as escalas de temperatura Celsius e Farenheit... Buscando uma padronização internacional, a ISO (International Organization for Standardization), padronizou as medidas ASA (American Standards Association) e DIN (Deutsches Institut für Normung) : hoje essas mesmas caixinhas exibem inscrições como ISO 100 ou ISO 400.
As especificações nos rótulos de filme foram padronizadas, mas o mundo apresentou novos desafios: os computadores, cada vez mais presentes no nosso dia a dia, trouxeram a digitalização para a sala de visitas ou de TV: o velho videocassete deu lugar ao DVD player. Imagens estáticas e depois vídeos invadiram o celular. No entanto, para se chegar aqui, novas padronizações tornaram-se ao longo do tempo necessárias.
Uma delas, mais antiga, dizia respeito às imagens fotográficas digitais. O mesmo ISO das caixinhas de filmes (criador também de dezenas de outros padrões) uniu-se em 1986 ao CCITT (Comité Consultatif International Téléphonique et Télégraphique) para criar o grupo Joint Photographic Experts Group, cujos trabalhos resultariam em 1994 no padrão JPEG de compressão para imagens digitais estáticas.
A compressão é necessária no mundo digital para reduzir o alto volume gerado pelas informações numéricas resultantes dos processos de digitalização de áudio e vídeo. Nesse processo, milhares de amostras são obtidas de cada trecho da imagem ou som, sendo a seguir convertidas em seqüências de números representando os valores de brilho / cor / sonoridade das amostras. É necessário então dispor de um meio de armazenamento capaz de guardar todos esses números. Como normalmente estes meios não comportam tanto volume de informação, entra em cena o processo de compressão.
E não é só isso: a compressão apresenta vantagens também na transmissão de vídeo, permitindo enviar um sinal com melhor qualidade, comprimido, ocupando o mesmo espaço de um sinal de menor qualidade, não-comprimido.
No padrão JPEG a imagem é dividida em quadrados de 8x8 pixels e através de complexos cálculos matemáticos é determinada uma cor 'média' para estes blocos de 64 pixels. Com isso ocorre perda de detalhes na compressão. Processos em que isto ocorre são conhecidos como 'lossy' (compressão com perda). Existem processos onde não ocorrem perdas ('lossless'), utilizados por exemplo no padrão GIF (Graphic InterFace, desenvolvido pela Compuserve) de compressão de imagens fotográficas. No entanto padrões como o GIF são apropriados para gráficos e não imagens fotográficas, porque o conjunto de cores tratados por eles (256 cores) é muito menor do que o utilizado em padrões como o JPEG.
Em janeiro de 1988 foi formado pelo ISO juntamente com o IEC (International Electrotechnical Commission) um grupo de trabalho denominado Motion Picture Experts Group, gerando uma sigla que se tornaria muito conhecida: MPEG. O grupo, formado para criar padrões internacionais de compressão de áudio e vídeo, criou então os algoritmos MPEG-1, MPEG-2 e MPEG-4 utilizados até hoje.
O uso de algoritmos MPEGs envolve sempre duas fases: a de compressão, onde imagem e/ou áudio são comprimidos gerando um conteúdo com tamanho total menor, pronto para ser por exemplo gravado em um disco óptico e a fase de recuperação desse conteúdo, também chamada de expansão, onde a imagem e/ou áudio originais são reconstituídos. A compressão é efetuada por um software denominado compressor e a expansão por um software denominado expansor. Esses nomes tem sinônimos mais conhecidos, respectivamente encoder e decoder. E o conjunto dos 2 forma a palavra codec, abreviação de coder (encoder) + decoder.
Os padrões MPEG trouxeram uma nova filosofia em sistemas de codificação, onde o processo de encoder é muito mais trabalhoso e complexo do que o inverso, de decoder. Como a decodificação é simples e rápida, facilita a proliferação de circuitos eletrônicos que realizam esse processo com eficiência, barateando os players, situação ideal para distribuição de conteúdo. Este fato também permite que novos encoders surjam com o passar do tempo, utilizando diferentes abordagens nos processos de compressão. Tem-se assim encoders que produzem imagens melhores do que outros, além dos mesmos serem geralmente parametrizados, ou seja, a qualidade da compressão (maior ou menor) pode ser ajustada. Do outro lado (decoders), tem-se um circuito padronizado capaz de reproduzir qualquer um desses tipos de dados comprimidos.
O MPEG-1 foi desenvolvido para gravar imagens de vídeo em um CD comum de áudio, mas boa parte das técnicas de compressão utilizadas neste algoritmo foram aproveitadas mais tarde nos algoritmos MPEG-2 e MPEG-4. Por sua vez, muitos princípios de codificação empregados no MPEG-1 foram derivados do algoritmo já existente à época para codificação de imagens estáticas, o citado JPEG.
Enquanto o MPEG-1 trabalha com somente 2 canais de áudio, o MPEG-2 extende esse limite, possibilitando aplicações como filmes com som surround 5.1. O MPEG-2, ao contrário do MPEG-1, permite a codificação de imagens de vídeo entrelaçadas (campos alternados par / ímpar), padrão utilizado atualmente nos sistemas de TV.
Pesquisas para padronizar compressão com qualidade variável (através de parâmetros), que se tornariam o padrão MPEG-3, já estavam prontas na época em que o MPEG-2 estava sendo finalizado. Assim, foram incorporadas ao próprio MPEG-2, de certa forma "matando" o MPEG-3. O popular mp3 empregado em músicas nada tem a ver com "MPEG-3" : mp3 é uma parte do MPEG-1 (MPEG-1 Audio Layer 3) destinada a tratar compressão de áudio, existindo ainda dois níveis (Layer 2 e Layer 1), correspondendo aos mp2 e mp1, onde respectivamente cada vez tem-se menos compressão e mais qualidade no resultado final - e também mais dados armazenados.
O MPEG-4 emprega mecanismos ainda mais sofisticados no encoder do que o MPEG-2. A escalabilidade, ajuste na qualidade final obtida, para mais ou para menos, obtendo-se um espaço total ocupado menor ou maior respectivamente, foi amplamente aumentada no MPEG-4. Isso permitiu seu uso em equipamentos os mais diversos, desde telefones celulares a transmissões em alguns sistemas de TV de alta definição (HDTV). E em 2001 a entidade MPEG passou a trabalhar em conjunto com a ITU (International Telecommunications Union) para desenvolver ainda mais o MPEG-4, criando o grupo o grupo JVT - Joint Video Team. O JVT criou então o Advanced Video Coding, conhecido como AVC, H.264 ou ainda MPEG-4 Part 10. Da mesma forma que o MPEG-4 em relação ao MPEG-2, o H.264 não produz uma imagem melhor visualmente, mas sim uma imagem gerada com uma quantidade menor de dados, ou seja, com muito menos informação armazenada.
A compressão com algoritmos do tipo MPEG é sempre do tipo lossy, o que, como vimos, significa compressão com perdas. Na realidade o que ocorre é que a imagem restituída pelo decoder não é exatamente idêntica em qualidade à imagem original antes de ser comprimida pelo encoder: sua qualidade é menor. O quanto menor ela é influi no resultado final observado a partir da reprodução do vídeo em um player. Apesar do fator perda, se o original tiver uma qualidade muito alta, mesmo com as perdas decorrentes da compressão o resultado final será muito bom. É isso o que ocorre com os DVDs de filmes alugados nas videolocadoras: são gravados em MPEG-2, a partir de películas cinematográficas trabalhadas em laboratórios especiais, que melhoram ainda mais a qualidade do processo, chegando muitas vezes a atuar em ajustes precisos quadro a quadro. A compressão de uma imagem de vídeo é tanto mais eficiente quanto menos "ruído" tiver o original, ou seja, quanto mais limpa for a imagem, sem defeitos como granulações causadas por exposição incorreta por exemplo, melhor.
Por outro lado, se o original não tiver qualidade suficiente, o resultado final, ainda que gravado em MPEG-2 em um DVD, ficará ruim porque, como visto, o processo de compressão sempre diminui a qualidade inicial da imagem.
Dois métodos diferentes de se comprimir imagens são utilizados no MPEG-2. O principal é o multi-frame, um tipo de compressão na qual cada quadro da imagem é comparado com o anterior e as modificações detectadas são anotadas passando a constituir a informação a ser armazenada (ao invés do quadro todo). O outro é o intra-frame, onde cada quadro é comprimido individualmente, sem comparação com os demais. O método intra-frame isoladamente é utilizado por exemplo nos formatos de vídeo da família DV. No caso do MPEG-2, os quadros sucessivos da imagem são trabalhados em conjuntos denominados GOP (Group Of Pictures). O primeiro quadro do conjunto é comprimido utilizando o método intra-frame e a seguir, os seguintes tem somente as diferenças em relação a este primeiro quadro anotadas. A partir de determinado ponto um novo conjunto é formado, da mesma forma, e assim por diante. A seguir, os quadros que armazenam somente as diferenças em relação ao primeiro são comparados e somente as diferenças entre eles são armazenadas. Assim, consegue-se uma diminuição considerável de espaço.
A tecnologia envolvida para fazer isso tudo é bem complexa. Em primeiro lugar, porque a compressão e descompressão de um quadro individualmente envolve o armazenamento temporário em memória de um conjunto de quadros anteriores e posteriores. Depois, porque os quadros são agrupados e armazenados em conjuntos, para os quais aplicam-se regras diferentes a cada elemento (quadro) do conjunto, alguns servindo somente para referência, outros para armazenar somente determinados parâmetros da imagem, etc.. E por fim, porque o movimento dos elementos dentro da imagem é calculado através de vetores analisados ao longo de todo o conjunto de quadros.
Uma determinada imagem pode ser mais "simples" ou mais "complexa" em termos de compressão: a imagem de uma estátua sobre o fundo azul do céu é mais fácil de ser comprimida do que sobre o fundo cheio de detalhes de uma floresta. A uniformidade do céu permite o armazenamento de poucos dados para que o mesmo possa ser reproduzido, como se houvesse um "carimbo" de pixels azuis que pudesse ser utilizado ao longo da maior parte do céu. O mesmo já não é possível para reproduzir os detalhes e nuances particulares de cada folha das árvores no segundo exemplo, cujas informações tem que ser individualmente armazenadas.
Enquanto os formatos que empregam compressão intra-frame são gravados em fita com taxas fixas de fluxo de informação (bit-rate), o mesmo não ocorre nos formatos que utilizam compressão multi-frame. Estes formatos foram desenvolvidos originalmente para uso em discos ópticos, como DVDs, um tipo de mídia que pode ser gravada com diferentes taxas de bit-rate, resultando em imagens com qualidades diferentes.
Novas mídias substituirão o DVD, assim como novos processos de compressão serão criados. É a evolução constante da tecnologia, que não dispensa, no entanto, a padronização internacional, principalmente em um mundo tornado cada vez menor com a derrubada de fronteiras e a globalização.
assunto: Sinal de Vídeo
SD e ; HD
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
A diferenciação entre esses dois conceitos, definição padrão (Standard Definition) e alta definição (High Definition) está em uma contagem numérica, a quantidade de linhas na tela da TV ou vídeo. Contadas, umas abaixo das outras, uma quantidade menor do que um determinado número indicará tratar-se de um sistema de baixa definição (definição SD), e uma quantidade maior do que esse determinado número indicará tratar-se de um sistema de alta definição (HD). E qual é esse número?
Um sistema que apresente mais de 1080 linhas de resolução vertical será um sistema HD, enquanto os que apresentam somente essa pequena quantidade de linhas, como por exemplo as imagens do antigo (mas ainda em uso) HDTV, serão SD. Com quadros de imagem sendo reproduzidos na cadência de 60/seg. em montagem progressiva, a TV de alta definição apresenta imagens com 4.320 linhas de resolução vertical e 7.680 linhas de resolução horizontal. Em termos de pixels por quadro de imagem, temos mais de 32 milhões (resultado da multiplicação de 7.680 por 4.320), contra somente 2 milhões da antiga HDTV de mais de 10 anos atrás...
O aspecto de imagem manteve-se no entanto inalterado através dos mais variados formatos e tecnologias surgidos recentemente: 16x9, aproximando-se bastante do aspecto das imagens do tradicional cinema de Hollywood, desde a época em que o mesmo abandonou definitivamente as películas com perfurações, em rolos, utilizadas ainda nos antigos projetores de cinema nos primeiros anos após a virada do milênio.
Novas formas de armazenamento tem surgido dia após dia, prevendo-se para breve a aposentadoria dos tradicionais discos holográficos, muito utilizados hoje em dia para armazenar filmes em HD. Para se ter uma idéia da evolução tecnológica alcançada nas últimas décadas, o mesmo filme ocuparia mais de 60 discos DVD-Video utilizados no passado, e ainda um punhado dos também superados Blu-ray e HD-DVDs (alguém lembra-se desses discos?)
Agora que a capacidade de armazenamento dos micros supera a casa das centenas de terabytes e velocidades dos processadores atinge mais de 10GHz, o sistema Super Hi-Vision torna-se uma realidade.
O texto acima poderia ter sido escrito em algum ano próximo de 2025, data prevista para o início das transmissões regulares do sistema Super Hi-Vision, mais conhecido como UHDTV, ou Ultra High Definition TV, desenvolvido pelos engenheiros da estatal NHK no Japão. O sistema já existe e funciona de fato, como tem tido a oportunidade de constatar centenas de visitantes que formam filas para ver suas imagens nas feiras onde tem sido demonstrado.
Obviamente nossos recém instalados equipamentos HDTV perdem feio no quesito qualidade e definição de imagem em comparação com um sistema assim, que, além de tudo, ainda possui 22 canais de áudio. Tanta informação pode ser exibida nas demonstrações, mas ainda não existem sistemas práticos comercializáveis capazes de armazenar suas imagens, isso sem nem entrarmos no aspecto da edição. Outro ponto é o da transmissão de um grande volume de informação como esse, que mesmo codificado e comprimido ainda ocupa uma banda muito larga, exigindo soluções que vão de fibras ópticas a configurações especiais em satélites, empregadas em testes realizados com o sistema nos últimos anos.
As experiências feitas remetem a fatos do passado ocorridos com testes de novos equipamentos, como por exemplo a informação de que existem somente 2 câmeras funcionando para captar essas imagens, câmeras grandes, pesadas e repletas de cabos e controles - podem captar menos de uma hora de imagens por dia. No entanto, foi assim no passado também com a TV tradicional, hoje com câmeras que podem ser embutidas dentro de um aparelho celular.
Para o público, a experiência de assistir os poucos minutos apresentados produzem comentários onde muitos dizem não acreditar no que estão vendo.
Mas, para o mesmo público ter acesso corriqueiro a essa tecnologia muitos anos ainda terão que vir pela frente, melhorando a resolução das telas dos televisores, diminuindo seu preço (pode-se lembrar aqui o alto preço dos televisores de plasma quando surgiram no mercado) e propiciando-se meios de armazenamento como os citados discos holográficos. Aliás, não somente esses discos (hoje já existentes) tem seus competidores, como a própria UHDTV tem sistemas parecidos, com outras tecnologias, sendo estudados e desenvolvidos. O armazenamento em memória sólida cresce com grande rapidez de expansão, e tecnologias revolucionárias estão sendo pesquisadas neste sentido. Com certeza isso tudo dará suporte à implantação de sistemas, senão idênticos, derivados ou a própria UHDTV mesmo, em um futuro que conta-se em menos do que uma década.
Voltando para os dias atuais, conceitua-se HD como sendo todo sistema de imagem que possua mais do que as tradicionais 480 linhas de resolução vertical, definição válida para o padrão NTSC, mas adaptável para o PAL e suas 576 linhas. Existe quem considere, por este fato, o PAL como um sistema HD, argumentando que 576 não é muito distante de 720, uma das duas resoluções HD atualmente em uso (a outra é a de 1080 linhas). Este conceito está totalmente incorreto, pois se por um lado de fato existe essa proximidade na resolução vertical, deve-se lembrar que as resoluções horizontais dos dois sistemas são muito diferentes. E, além disso, que o PAL é um sistema entrelaçado tradicional e o 720 no modo HD um sistema progressivo.
Os sistemas HD possuem quadros de imagem de dois tipos, 720 x 1280 pixels ou 1080 x 1920 pixels; o primeiro monta seus quadros de imagem na forma progressiva e o segundo na forma entrelaçada. Para o público a qualidade visual das imagens tanto em um sistema quanto em outro é equivalente: um possui mais linhas, mas é entrelaçado (somente metade da informação é mostrada de cada vez). O outro mostra todas as linhas, uma abaixo da outra de uma só vez, mas possui menos linhas. E mesmo hoje a experiência HD ainda exige determinados investimentos para que seja possível por parte desse público: existem televisores que apresentam 600 ou mais linhas de resolução vertical, porém menos do que as 1080 entrelaçadas ou 720 progressivas do padrão HD citado acima. Todos esses aparelhos, embora sejam classificados como HD, não são capazes, de fato, de exibir as imagens da HDTV com toda a qualidade possível.
No tocante à edição, surgiram formatos HD destinados ao público não profissional e seus equipamentos caríssimos: foi assim como o HDV e posteriormente com os formatos HD baseados em compressão MPEG4 por exemplo, como o AVCHD, embora estes últimos possuam edição não muito amigável quanto o HDV, que mesmo assim não superaram a facilidade e qualidade nesses processos dada pelo tradicional Mini-DV.
O ponto central aqui no entanto é mostrar que os conceitos evoluem, e o que é uma coisa hoje pode já não ser amanhã. Voltando para o passado, iremos encontrar um público encantado com as primeiras transmissões ao vivo da TV colorida. Comenta-se que um sistema desse tipo colocado para exibir imagens de eventos cirúrgicos em um congresso médico teria provocado alguns desmaios de funcionários do hotel. Verdade ou não, o fato é que o realismo das imagens televisivas é repensado de tempos em tempos, estabelecendo-se novas marcas de resolução, divisores de águas entre os conceitos SD e HD.
Mais para trás ainda no tempo, em uma época em que a TV ainda não sonhava em transmitir cores, a BBC anunciava seu revolucionário sistema high-definition, no dia 2 de novembro de 1936, conforme histórico constante em seu site. O termo não poderia ser outro: comparando-se a resolução das imagens desse sistema com a de sistemas desenvolvidos na forma de protótipos até então, havia um grande número de linhas produzindo uma imagem nunca antes vista.
A questão é exatamente essa, caminhamos de saltos em saltos cada vez mais para uma analogia mais perfeita da realidade na tela de um televisor ou de uma sala de cinema. Até onde essa realidade irá chegar é uma incógnita. Avançaremos depois em 3 dimensões, clicaremos em telas suspensas no ar "à la Tom Cruise em Minory Report" e cada vez mais conseguiremos espremer todas essas informações em espaços sempre menores. E ainda, mais uma vez, o que era HD deixará de ser, tornando-se tecnologia do passado.
assunto: sinal de vídeo
NTSC, PAL, SECAM
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
Quando ouvimos falar de Graham Bell logo associamos seu nome ao velho e conhecido telefone. Imaginamos então aquelas caixas de madeira penduradas nas paredes, das quais saía um fio conectando um pequeno alto-falante que deveria ser colocado sobre a orelha - ninguém ainda havia pensado em unir o microfone, preso na caixa de madeira, ao alto-falante em uma única peça. E, muito menos ainda que tudo aquilo poderia encolher de tamanho décadas mais tarde a ponto de caber com folga dentro de um estojo de óculos. Mas Bell não inventou só o telefone, muitas outras pesquisas foram feitas em seu laboratório.
Desde o início do século passado a possibilidade de se transmitir imagens à distância, assim como já era feito com o telégrafo, era um assunto muito pesquisado, inclusive pela grande empresa originada no pequeno laboratório de Bell, a Bell Laboratories nos EUA. E na época em que a segunda guerra mundial chegava a seu fim, tendo essas e outras pesquisas em diversos lugares mostrado que a transmissão de imagens a longa distância era viável, formou-se um comitê para propor um padrão para essas transmissões.
As imagens seriam propagadas através de ondas de rádio, tendo a US Federal Communications Commission dividido já em 1945 um trecho do espectro de ondas VHF (Very High Frequency) em 13 canais, determinando com isso um tamanho máximo de faixa de transmissão (banda) para cada um desses canais.
Assim, nascia no início dos anos 50 nos EUA o National Television Standards Commitee (NTSC). Seus engenheiros tiveram então de criar especificações que fizessem com que a quantidade de informação transmitida coubesse no espaço destinado a cada canal. Foi estabelecido que a frequência de troca dos quadros nas imagens seria de 60 quadros por segundo (60qps), igual aos 60 Hz (ciclos/seg) utilizados na corrente elétrica nos EUA, porque isso facilitava o controle do sincronismo dessas imagens no aparelho receptor - a eletricidade que alimentava o televisor ajudava a realizar assim essa tarefa, em uma época onde a eletrônica ainda dava seus primeiros passos.
A imagem seria desenhada através de linhas, uma abaixo da outra (característica que se mantém até hoje), em um total de 525 por quadro. Destas, 480 conteriam a porção efetivamente visível e as demais conteriam códigos para orientar o tubo de imagem em sua frenética tarefa de desenhar uma linha, voltar para trás e desenhar a linha de baixo, depois outra e mais outra e no final de tudo retornar ao início para o desenho do próximo quadro. Aliás neste aspecto, um detalhe significativo: na realidade as linhas não poderiam nessa época serem desenhadas na sequência, uma abaixo da outra. Como a largura de banda disponível não era suficiente para transmitir uma imagem completa, com todas as linhas, 60 vezes por segundo, optou-se por dividi-la em 2 partes, uma com as linhas pares e outra com as ímpares, mostradas alternadamente, a cada 1/60 seg - nascia assim o conceito de interlace de imagem.
Neste sistema, cada "metade" da imagem (linhas pares ou linhas ímpares) recebe o nome de campo, e a frequência com que são desenhados na tela não é perceptível para o espectador. Outro motivo para o uso da técnica de interlace eram os próprios tubos de imagem da época, incapazes de reter durante muito tempo em sua camada interna de fósforo a luminosidade: quando as últimas linhas estivessem sendo desenhadas, o começo do quadro teria já se apagado. Finalmente o áudio era também codificado no mesmo sinal, sendo transmitido na forma monoaural.
O padrão NTSC era e continua sendo somente um padrão de transmissão de imagens: ele nunca especificou como essas imagens deveriam ser armazenadas. Tem-se assim hoje vários formatos diferentes de armazenamento de imagens, em fita, disco ou HDs, não importando de que forma as informações fiquem ali registradas. Somente quando o sinal é reproduzido por um determinado aparelho é que deve estar de acordo com o padrão estabelecido.
O NTSC colorido
No início da década de 60 o padrão NTSC foi implementado, tendo sido acrescentadas as especificações para imagens coloridas. Como não havia espaço para aumentar a banda disponível para acrescentar as informações de cor, os engenheiros do comitê criaram um segundo sinal específico para cor (sinal de cromitância), misturado de forma codificada ao primeiro já existente, destinado à luminosidade (sinal de luminância), criando assim um sinal composto.
O requisito básico era que o sinal de luminância deveria permanecer inalterado com esta modificação, para permitir que antigos televisores em preto e branco continuassem a captar a mesma imagem de antes. Para conseguir a proeza os engenheiros tiveram que efetuar uma pequena adaptação na cadência das imagens, que deixou de ser exatos 30qps para ser 29,97qps (e que levaria anos mais tarde aos conceitos de drop e non-drop timecode, mas isso já é outra história...).
A forma como os sinais foram misturados acabou apresentando alguns defeitos eventuais nas cores, como enfraquecimento em determinados pontos, mistura com partes de outra cor e supersaturação de algumas cores, principalmente vermelho. A ausência de indicação de referência absoluta no sinal de cor deixava os aparelhos livres para reproduzir as cores conforme seus ajustes individuais (receptores colocados lado a lado mostravam a mesma cor com tons diferentes).
Como melhoria deste padrão, foi proposto o padrão PAL, no final dos anos 60, para países que ainda não possuíam TV colorida - seria impraticável a essa altura alterar drasticamente o pioneiro NTSC. Mas, ainda assim, no decorrer dos anos seguintes foi possível efetuar alterações e correções menores no sistema, que fizeram, em seu conjunto, desaparecer muitos dos problemas evidentes do sistema nessa época. Juntamente com essas modificações surgiu também o NTSC com som estéreo, legendas para deficientes embutidas no sinal e o áudio multi-língue SAP.
PAL: corrigindo problemas do NTSC
No final dos anos 60 surgia na Alemanha o padrão PAL, sigla para Phase Alternate Lines, propondo-se a corrigir vários problemas existentes no NTSC referentes à reprodução de cor. O que os engenheiros fizeram foi inverter a fase do sinal de cor para linhas alternadas na tela, daí o nome dado ao padrão. A reprodução de cores resultou mais precisa do que no padrão NTSC e o sistema foi adotado em vários países, exceto os já comprometidos com investimentos no sistema NTSC.
Neste países a corrente elétrica alternada era gerada em 50 ciclos/seg (ao invés de 60, como nos EUA), por isso a frequência de mudança dos campos foi especificada como 50 e não 60, sendo as imagens transmitidas a 25qps ao invés de a 30/seg. Esta redução na cadência de mudança das imagens fez com que essas mudanças ficassem um pouco mais 'visíveis' do que no padrão NTSC - no PAL a imagem 'pisca' mais.
Isso no entanto não ocorre em uma variação do padrão PAL denominada PAL-M (soou familiar?), porque a corrente utilizada é de 60 ciclos/seg - e portanto as imagens são transmitidas com frequência de 30 quadros/seg.
Nos sistemas PAL de 50 ciclos, para compensar a perda na qualidade visual ao mostrar-se 25 quadros/seg a quantidade de linhas na tela foi ampliada: estes sistemas mostram 625 linhas ao invés das 525 do sistema NTSC e do sistema PAL-M - a imagem aparenta-se mais nítida e definida. Há outros fatores também no sinal PAL que o tornam superior ao NTSC: maior contraste obtido nas imagens (a parte do sinal que controla esta característica é mais abrangente) e maior detalhamento geral, por sobrar mais espaço de banda para a luminância uma vez que o sinal de cor ocupa menos espaço por utilizar frequência maior do que no NTSC.
A alternância de fase no sinal de cor exige mais campos para completar-se o ciclo completo de cor, limitando ligeiramente a precisão dos equipamentos de edição neste sistema em relação ao NTSC. Também em relação ao NTSC os sistemas PAL de 625 linhas ficam mais sujeitos a interferências em transmissões de um equipamento a outro, devido a requerer maior banda. Ainda outro problema frequente é a saturação das cores, muitas vezes fugindo do original.
O padrão PAL não é exatamente idêntico nos diversos países onde é adotado: ligeiras variações em suas características básicas diferenciam um padrão de outro e para identificá-los são adotados sufixos conforme o subtipo de PAL: PAL-M, PAL-N, PAL-D, PAL-I, PAL-G, PAL-B e PAL-H. O PAL-B por exemplo utiliza 5,0 Mhz de largura de banda, enquanto o PAL-D utiliza 6,0 Mhz e o PAL-I utiliza 5,5 Mhz.
SECAM: a alternativa
Quase ao mesmo tempo em que o PAL era desenvolvido na Alemanha, surgia na França um padrão semelhante em alguns aspectos ao PAL e também destinado a suprir as deficiências do NTSC. Abreviação de Systeme Electronique Couleur Avec Memoire, o SECAM funciona na maioria dos países em 25qps, pois estes utilizam 50 ciclos/seg em sua corrente elétrica - Colômbia e Jamaica são os dois únicos que possuem o sistema em 60 ciclos - 30 quadros/seg.
As diferenças entre PAL e SECAM são tão pequenas que a conversão entre os mesmos pode ser feita por um simples decodificador e a maioria dos receptores PAL é capaz de exibir imagens (porém em preto e branco) transmitidas em SECAM. Alguns videocassetes e gravadores de DVD no formato SECAM chegam a traduzir o sinal SECAM para PAL, gravá-lo desta forma e retraduzí-lo para SECAM na reprodução. É impossível sincronizar dois sinais SECAM a fim de mixá-los, devido a suas características. Para contornar este problema, a maioria dos estúdios em emissoras de países que utilizam este sistema costuma gerar os programas em PAL, editá-los deste modo e só então convertê-los para SECAM no momento da transmissão. A quantidade de linhas no sistema SECAM é sempre 625.
Os sistemas SECAM que utilizam 25 quadros/seg sofrem com a redução na cadência de mudança das imagens: isto faz com que as mesmas sejam um pouco mais 'visíveis' do que no padrão NTSC - também aqui a imagem 'pisca' mais. Em relação ao NTSC são desvantagens: menor resolução e brilho excessivo em desenhos compostos por linhas muito próximas entre si. Por outro lado a saturação de cores é bem mais estável do que no padrão NTSC.
Assim como o PAL, também o SECAM não é exatamente idêntico nos diversos países onde é adotado: ligeiras variações em suas características básicas diferenciam um padrão de outro e para identificá-los são adotados sufixos conforme o subtipo de SECAM: SECAM-B, SECAM-G, SECAM-H, SECAM-D, SECAM-K, SECAMK1 e SECAM-L.
Mundo afora
O NTSC é utilizado nos EUA e em quase 30 outros países. Mais de 60 países pelo mundo utilizam alguma das variações do sistema PAL e quase 40 países adotam também alguma das variações do SECAM. Em alguns poucos países há mais de um padrão em uso (NTSC / PAL / SECAM), geralmente um oficial e outro introduzido por novos serviços de TV a cabo ou utilizado para recepção de sinal proveniente de países vizinhos, em locais próximos às fronteiras. Ainda em outros países existe diferença de padrão quando a transmissão / recepção é feita em VHF ou UHF. Em relação a este último item, no Brasil em ambos sistemas (VHF / UHF) o padrão é o mesmo.
A história, dizem, se repete, e vemos agora a escolha e implantação dos sistemas de tv de alta definição. Os conceitos tornaram-se mais complexos e juntamente com a tv de alta definição tem-se a possibilidade de migrar de um sistema analógico para um digital. A tv de alta definição já foi testada no passado em sistemas analógicos, mas os sistemas digitais trazem inúmeros benefícios.
Os padrões são no sistema de tv digital apenas parte do sistema todo: I-SDB (o padrão japonês), DVB (europeu) e ATSC (americano) são possíveis escolhas do componente de modulação do sinal. Mas, junto com eles, temos também o componente de codificação (MPEG2, MPEG4), o middleware (que pode ser pensado como o "sistema operacional" da tv digital) e o padrão de retorno, através do qual o público irá interagir com as emissoras fazendo escolhas durante a exibição de determinados programas.
Algo com que Graham Bell jamais poderia sonhar, ainda mais pensando-se na possibilidade de ver essas imagens em uma minúscula tela embutida dentro da miniatura em que se transformou sua caixa de madeira com fone de ouvido separado do microfone...
assunto: monitores
Monitores: CRT, LCD, plasma...
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
O tubo de imagem de TV, conhecido como CRT, faz hoje parte de diversos momentos de nossas vidas. Todo mundo já teve algum contato com ele, seja em casa, com os tradicionais aparelhos de TV, no supermercado, com os monitores dos caixas ou no Banco, com os caixas eletrônicos. Em videoprodução profissional são usados para calibrar e ajustar diversos parâmetros das imagens gravadas.
Esse conhecido tubo tem uma longa história, que inicia-se ainda no século 19, fruto de uma árvore de inventos que daria origem a diversos aparelhos de uso prático, como o osciloscópio e o tubo de raios-X. O primeiro CRT, ainda muito distante de produzir qualquer coisa semelhante a uma imagem, foi inventado por um cientista alemão em 1897, Karl Braun. Antes dele, desde 1875 e depois dele, diversas outras invenções foram traçando o caminho do tubo de imagem de TV. Em 1907 o cientista russo Boris Rosing conseguiu transmitir formas geométricas rudimentares utilizando CRTs. Uma série de inventores então, nos anos seguintes, foi aperfeiçoando o aparelho até que o mesmo pudesse transmitir imagens reais a partir da década de 30.
Cathode Ray Tube
O nome CRT é abreviação de Cathode Ray Tube, tubo de raios catódicos. Dentro dele, um feixe de elétrons é projetado por um canhão sobre uma tela de vidro recoberta por um composto contendo fósforo. Este material torna-se luminoso ao ser estimulado pelos elétrons e assim permite que a luz seja vista do outro lado do vidro. Eletro-ímãs colocados no percurso do feixe, controlados eletronicamente, fazem com que o mesmo descreva uma trajetória em forma de linhas horizontais formando a imagem do vídeo. Durante muitos anos as imagens assim compostas foram vistas por milhares de pessoas - em preto e branco. O CRT colorido demoraria ainda um pouco mais para chegar.
Em 1946 Peter Goldmark criou nos EUA um sistema de TV colorida onde um um disco com as cores RGB (Red, Green, Blue) girava na frente de um CRT - um meio mecânico de produzir imagens coloridas. Dois anos depois o sistema foi utilizado em um congresso de medicina para mostrar procedimentos cirúrgicos realizados nos hospitais Pennsylvania e Atlantic City. Relatos da época dizem que o realismo de se ver cirurgias a cores causou desmaios em diversas pessoas presentes no centro de convenções... O sistema no entanto não prevaleceu: uma máscara de pontos coloridos RGB colocada sobre a tela, iluminados individualmente pelo feixe de elétrons tornou-se a base do sistema de TV colorida.
O CRT sofreu centenas de aperfeiçoamentos nas décadas seguintes e hoje ainda é o que possui maior fidelidade de cor e capacidade de reproduzir bem a escala de tons de cinza em relação às demais tecnologias: por isso são usados como monitores em videoprodução.
As primeiras TVs de retro-projeção RPTV (Rear Projection Television) foram criadas utilizando CRTs. Esses aparelhos, com telas normalmente muito grandes e com um grande espaço atrás delas, funcionam como se estivéssemos olhando por trás de uma tela de cinema. O projetor, no caso 3 pequenos CRTs (um para cor básica RGB), é montado com lentes de projeção e fica no interior do televisor, projetando a imagem em um espelho, que por sua vez a direciona à parte interna da tela frontal do aparelho. As TVs RPTV que usam CRTs custam menos do que as do tipo painel plano de tamanho de tela semelhante, sendo uma alternativa a estas por possuírem qualidade semelhante ou até melhor de imagem (apesar do grande tamanho do aparelho, pouco atrativo ao consumidor). O CRT pode no entanto apresentar algumas variações de foco e alguns problemas de convergência nas bordas das imagens, inexistentes em telas planas com as de plasma, onde o foco é preciso em toda a área da tela.
Plasma
A tela de plasma não é uma idéia recente. O primeiro protótipo, muito rudimentar, foi criado em 1964 (isso mesmo), na Universidade de Illinois (EUA). O objetivo era descobrir um substituto para os monitores do tipo CRT empregados em computadores, ruins na época para a exibição de gráficos - assemelhavam-se mais às TVs comuns do que os atuais monitores.
O princípio de funcionamento dessas telas é muito simples: cada pixel (célula individual de imagem na tela) é uma lâmpada fluorescente (dessas comuns, de tubo) microscópica. Cada célula dessas é preenchida por um gás que emite radiação ultravioleta ao receber um estímulo elétrico. Essa radiação atinge as paredes da célula, revestidas internamente por um composto de fósforo que produz então a luz visível. A idéia do plasma no entanto não poderia se viabilizar na fabricação de telas naquela época, devido às muitas restrições tecnológicas existentes para miniaturizar as células e do pouco desenvolvimento da eletrônica, necessária para controlar individualmente milhares dessas células por painel. Apesar disso o invento - construído com apenas uma única célula - ficou patenteado por seus criadores, dois professores e um aluno dessa Universidade.
As telas de plasma normalmente tem alta resolução, excelente reprodução de cores e praticamente todas são construídas na proporção 16:9 - a tecnologia de plasma foi bastante aprimorada a partir dos anos 90 visando o mercado de HDTV, que usa telas nessa proporção. São normalmente construídas em grandes tamanhos (40 a 50 polegadas, medida feita na diagonal da tela) e apesar do alto custo inicial (15.000 dólares no lançamento) hoje já existem modelos por valores bem menores, principalmente os de baixa resolução. Nem todas telas de plasma são iguais: modelos mais baratos, quando comparados a outros com mesmo tamanho de tela, podem apresentar taxas ruins de contraste e produzir imagens com menor definição de detalhes.
Apesar de patenteada a muito tempo, o desenvolvimento da tecnologia de plasma foi lento nas décadas de 70 e 80, devido às maiores facilidades de fabricação apresentadas pelas telas de LCD.
LCD
O nome LCD é abreviação de Liquid Cristal Display. O LCD foi desenvolvido na década de 70, inicialmente monocromático (para uso em dispositivos como calculadoras). Seu princípio de funcionamento baseia-se na polarização da luz combinada com a propriedade de alguns tipos de cristais de desviar em maior ou menor grau a trajetória dessa luz conforme recebam maior ou menor carga de eletricidade. Se colocarmos um papel em cima do outro e recortarmos ali uma fenda suficiente para passar um biscoito CreamCracker, poderemos ter uma idéia a grosso modo do processo. Basta olhar contra a luz e girar um dos papéis no sentido contrário do outro: a abertura formada pelas fendas vai-se fechando, deixando passar menos luz. O giro do papel é a torção que ocorre no cristal ao receber carga elétrica, proporcional a essa carga. Assim, individualmente cada pixel (pequena área dessa tela) pode deixar ou não passar luz, em maior ou menor grau.
Plasma X LCD
O LCD é o grande concorrente do plasma: seus preços vem caindo drasticamente ano a ano e a qualidade vem aumentando. Sua tendência é apresentar-se como alternativa às telas de plasma, inclusive em tamanho. Durante muito tempo as telas LCD não puderam competir neste quesito, devido às dificuldades de se construir o sanduíche de cristal e painéis polarizadores em grandes dimensões. No entanto, a nova geração de fabricação dessas telas já é capaz de construir painéis com 50 e até 65 polegadas (medida no diâmetro) e a tendência é que com o passar dos anos os preços das telas de mesmo tamanho, em plasma e LCD se igualem. Telas ainda maiores poderão ser fabricadas no futuro. O maior tamanho acarreta ainda uma redução de custo, devido à economia de escala na fabricação dos grandes painéis.
O LCD sempre sofreu com o problema da latência (demora) na mudança muito rápida de imagens (vídeos e jogos por exemplo). Por outro lado o plasma sofreu desde suas primeiras versões com um defeito comum em CRTs de computadores: a "queima" da tela com imagens estáticas exibidas durante um certo tempo, como logos de emissoras de TV por exemplo (daí, nos CRTs de micros, o desenvolvimento dos protetores de tela). E também com a perda lenta e gradual, com o tempo de uso, do brilho da tela Esses problemas vem sendo contornados com o desenvolvimento da tecnologia de fabricação dessas telas.
Textos e gráficos (imagens estáticas) apresentam-se mais nítidos e brilhantes em telas LCD do que de plasma. Imagens exibidas à luz do dia, em telas LCD, aparentam-se um pouco melhores do que as exibidas em telas de plasma. Por outro lado, em ambientes de baixa luz as telas de plasma são um pouco mais brilhantes. A durabilidade prevista para telas LCD é maior do que a para telas de plasma (50.000 horas contra 30.000 horas), em parte devido ao problema da "queima" gradual da tela. Esse tempo corresponde a 13 e 8 anos respectivamente, com uso diário de 10 horas, consideravelmente grande para o uso doméstico. Levando-se em conta a rotatividade dos produtos de consumo, provavelmente antes disso terão surgido aparelhos melhores e mais baratos, incentivando a troca.
Um dos grandes motivadores para essa troca será a TV de alta definição (HDTV). Embora muitas telas de plasma / LCD possibilitem hoje a exibição de imagens em alta definição, não serão capazes de exibir diretamente as imagens HDTV no dia em que o padrão de transmissão for escolhido no país. Será necessário o uso de uma pequena caixa acoplada ao televisor, de modo semelhante ao que se faz hoje com a TV a cabo. Esta caixa conterá o processador para entender o sinal transmitido e enviá-lo ao aparelho de TV. Só a partir deste momento será possível a fabricação de aparelhos de TV já com esse circuito embutido, dispensando o uso da caixa externa. E este pode ser um exemplo de apelo à compra de um televisor novo, com design mais moderno e já "adaptado" à nova geração.
Tendências
A tendência é a construção de telas cada vez mais finas, mais brilhantes e com maior resolução.
Novas tecnologias vem surgindo, como a OLED, abreviação de Organic Light-Emitting Diode. Presentes já em telas de alguns modelos de celulares, são excepcionalmente brilhantes e muito finas. Ao contrário das telas LCD empregadas em vídeo que precisam ser iluminadas por trás, as telas OLED dispensam essa luz (são luminescentes, gerando luz ao serem atravessadas por corrente elétrica). Assim podem ser construídas mais finas, com espessura próxima a de um cartão de crédito. Esse tipo de construção possui um consumo energético bem menor, necessário somente para o circuito que controla a exibição das imagens. Pesquisas são feitas para construir monitores maiores com essa promissora tecnologia, que pode vir a desbancar no futuro o LCD. Além disso, os pesquisadores também buscam produzir telas OLED flexíveis.
E flexibilidade também está sendo colocada nas tradicionais telas LCD: pequenos protótipos já foram construídos, esperando-se que cheguem ao mercado em alguns aparelhos portáteis que utilizem telas pequenas. São mais robustos e muito mais leves do que seus similares tradicionais porque os painéis de vidro do sanduíche do LCD estão sendo trocados por placas finas de plástico, que podem ser dobradas.
Outra tecnologia é a LCoS, abreviação de Liquid Crystal on Silicon. Com custo de fabricação inferior ao das telas de plasma, este sistema, por trabalhar com projeção, exige espessura do painel um pouco maior. A vantagem, além do custo, é o fato da parte de controle eletrônico da imagem poder ser separada da tela propriamente dita (o que não acontece nos outros painéis como o LCD ou plasma por exemplo). Desta forma, é possível fabricar diferentes tamanhos de tela usando o mesmo dispositivo de controle de imagem, o que acarreta flexibilidade na fabricação e redução no custo.
E ainda outras tecnologias mais, como a EL, abreviação de Electroluminescent, prometem telas bem mais finas e baratas do que as de LCD / plasma do mesmo tamanho. Mais robustas do que estas, são fabricadas através de sanduíches de placas de material semi-condutor contendo fósforo como recheio de placas que podem ser eletrificadas em minúsculas áreas individualmente. Um campo elétrico intenso aplicado à determinada área (pixel da tela) faz com que o material semi-condutor libere luz visível. A construção robusta - devido ao não uso de gás em seu interior, como ocorre nas telas de plasma - indica sua utilização na indústria de acessórios automotivos, como em velocímetros gráficos (alguns modelos do Honda Fit por exemplo) e em aplicações como PDAs (Personal Digital Assistant). No entanto, telas EL também poderão ser construídas em grandes dimensões, semelhantes às de plasma.
Outras tecnologias em fase de pesquisa e outras ainda nas pranchetas espalhadas por diversos centros de estudos mostram um leque com diversas opções - por diversos motivos, tecnológicos, políticos e econômicos, algumas destas
assunto: sinal de vídeo
Do sinal analógico ao digital
Eduardo Baptista
coluna Fique Ligado, revista Zoom Magazine
O mundo real é analógico, não digital. Durante séculos, fizemos analogias. Fazer analogia é copiar, imitar, tentar reproduzir algo da maneira mais fiel ao original. Foi assim que o homem das cavernas começou a fazer desenhos nas pedras, tentando registrar ali a imagem dos animais que via e também dele próprio. Embora muito toscas, essas primeiras imagens traziam o germe de uma importante descoberta - para o homem dessa época: a de que era possível criar e guardar reproduções da vida que o cercava. O processo analógico envolvido consistia em copiar as formas básicas do contorno dessas pessoas e objetos, tentando reproduzi-las nas paredes das cavernas através de riscos, que formavam imagens em duas dimensões.
Mais tarde na escala evolutiva do homem surgiram outras opções para o registro de imagens, empregando por exemplo pincéis e tintas em cores variadas. O processo analógico aprimorava-se: é assim que temos registros sem conta de cenas e de pessoas da época antiga. Reis, rainhas e personagens simples do cotidiano tiveram suas imagens registradas nas telas dos pintores: durante muito tempo, ao lado da gravura e da escultura, a pintura era o único método de captação da realidade, muitas vezes mesclada com a imaginação dos artistas. Surge então o processo químico: com o auxílio de lentes, consegue-se registrar com grande fidelidade uma determinada imagem projetada sobre uma superfície preparada com substâncias especiais sensíveis à luz. O processo, conhecido como fotografia ("escrever com a luz"), baseia-se em um conceito fundamental para o registro de qualquer imagem, um conceito muito simples, tão simples que às vezes é preciso até um pouco de raciocínio para enxergá-lo. É o conceito de contraste: só através do contraste é possível existir uma imagem. Um quadro totalmente preto ou então totalmente branco não mostra imagem alguma. A imagem é formada pelos meio-tons, ou seja, pela variação da intensidade da luz refletida pelas pessoas e pelos objetos. É essa variação que forma os contornos, dá forma aos volumes e uma infinidade de outras características que nos permite reconhecer o que ali foi registrado.
Desta forma, qualquer mecanismo que possuirmos ou inventarmos que possa registrar, individualmente, em cada ponto de uma determinada superfície, a intensidade maior ou menor da luz ali presente, permitirá registrar uma imagem qualquer projetada nessa superfície. Projetar imagens, através de lentes por exemplo, é projetar luz, em diversas intensidades para cada um desses pontos. O processo químico da fotografia permitia esse registro, expondo à luz cristais de prata que mudavam suas características continuamente com essa exposição. Interrompida a luz, a modificação nos cristais também interrompia-se. Aí estava o pulo do gato: como imagens possuem pontos mais claros e outros mais escuros (o contraste de que falamos), bastava expor uma superfície carregada desses cristais à luz de uma imagem projetada pelas lentes: onde havia mais claridade, a transformação dos cristais era mais intensa, onde havia menos, menos intensa. Se a superfície ficasse um tempo enorme exposta à essa imagem, todos os cristais acabariam se modificando igualmente e não teríamos contraste algum - não teríamos imagem alguma. O segredo estava em interromper a exposição depois de determinado tempo e, sem deixar essa superfície receber mais luz alguma, levá-la (mantendo-a protegida da luz) para um local escuro, onde os cristais eram "lavados" com produtos químicos especiais, para que não se modificassem mais com a luz, a chamada revelação.
A analogia existente no processo é a correspondência entre pontos claros / escuros dos objetos e pessoas com pontos claros / escuros no papel fotográfico. O cinema nada mais é do que essas fotos captadas e exibidas em determinada velocidade. Surge então a TV e anos depois o vídeo. De novo o processo analógico está presente: desde a época dos antigos tubos de imagem até a dos CCDs (Charge Coupled Device) e dos CMOSs (Complementary Metal Oxide Semiconductor), sempre o primeiro registro de uma imagem é analógico. E não só as imagens, como também o som: câmeras e gravadores digitais começam a captura tanto da luz como do som (através de microfones) sempre de forma analógica. Isso porque, como foi dito no início, nosso mundo é e sempre será "analógico". Os pontos de luz, mais claros ou mais escuros registrados nos cristais de prata da foto são nos CCDs e CMOSs registrados como pulsos variáveis de corrente elétrica. Quando você encobre com a mão parte das células de uma calculadora que funciona com energia solar, os números no visor escurecem um pouco. Essas células transformam luz em corrente elétrica, que alimenta o visor de cristal líquido da calculadora. Nas calculadoras que funcionam com baterias, bateria fraca causa o mesmo efeito. Ou seja, pouca luz, pouca corrente, muita luz, muita corrente: está feita a analogia entre pontos claros / escuros da imagem e sua transformação em energia elétrica. Os CCDs / CMOSs são painéis com milhares dessas células solares, uma para cada pixel (a menor unidade que compõe uma imagem).
Basta então "ler" de cima abaixo esse painel, repetidas vezes, enviando o sinal elétrico com voltagem variável (pixels mais ou menos claros) para ser gravado em uma fita. Este é, basicamente, o princípio de funcionamento de uma câmera de vídeo analógica.
O processo analógico sofre de uma grave deficiência: ainda que possa registrar imagens com grande fidelidade, não permite cópias fiéis dessa registro. A cada cópia feita (diz-se "geração") a imagem degrada um pouco, porque o sinal de vídeo (aquela seqüência de variação de voltagens em um sinal elétrico) sofre muitas interferências ao trafegar através dos cabos de um equipamento a outro. E não é só isso: perdas na qualidade ocorrem na leitura da fita, na gravação da fita e também dentro dos circuitos eletrônicos dos equipamentos pelos quais trafega.
Surgem então os computadores e com eles o mundo digital, cópia - por analogia - do nosso mundo real. Imagens digitais podem ser copiadas quantas vezes se desejar sem perderem qualidade alguma. Como isso é possível? Para que entendamos isso, vamos acompanhar, através de um exemplo simples, como é feito o registro digital de uma imagem em uma câmera. O primeiro passo é sempre o mesmo, por mais sofisticada que seja a câmera que estejamos utilizando: transformar variações de luminosidade de pixels em variações de voltagem de corrente elétrica, um processo essencialmente analógico. Computadores trabalham com números, e o que é preciso a seguir é reproduzir essa corrente variável em uma série de números.
Podemos imaginar um gráfico com 2 eixos (horizontal e vertical) e uma curva do tipo sobe/desce, para representar essas variações de voltagem. Pense na famosa curva do eletrocardiograma. Imaginou? Então, se medirmos de trechos em trechos a "altura" da curva (sua ordenada "y" para os amantes da matemática) e anotarmos esses valores, teremos um conjunto de números que poderemos utilizar, em um outro gráfico, para reproduzir o gráfico original. Basta desenhar outros dois eixos, marcar divisões no eixo horizontal correspondentes aos trechos que utilizamos no primeiro gráfico, e acima desses pontos marcar os pontos "y" que anotamos. Ao ligar os pontos, você terá uma curva.... bem, digamos, um pouco semelhante à curva original...
Mas podemos melhorar o processo: diminuindo os trechos no eixo horizontal de onde obtemos as ordenadas "y", teremos, para o mesmo gráfico, uma quantidade maior de pontos a serem desenhados no segundo gráfico. Ligando os pontos agora, dá para perceber que a precisão do desenho da curva aumentou. Na verdade o que aumentou foi a quantidade de amostras obtida. E isso nos leva ao segundo passo do registro de imagens pela câmera: obter amostras. É também um processo analógico, que transforma valores de voltagens em números. Quanto maior a amostragem, maior a precisão no registro da imagem.
Chega então o terceiro passo: digitalizar esses números todos. Computadores são máquinas extremamente complexas, baseadas em um conceito extremamente simples: o de "ligado" e "desligado". Numericamente falando, os famosos "1"s e "0"s que correspondem a esses estados, grandeza conhecida como "bit" em computação. O segredo está na altíssima velocidade com que essas máquinas trabalham com esses números de apenas 2 dígitos. Números de 2 dígitos correspondem ao sistema de numeração binário. Existem diversos sistemas de numeração, diferentes do decimal a que você está acostumado (dígitos de "0" a "9"). Em um micro qualquer é fácil brincar com uma calculadora no modo científico, através da qual dá para comprovar que "2005" é "7D5" e também "11111010101", nos sistemas decimal, hexadecimal e binário. Pois é, esse monte de zeros e uns é o resultado da conversão do número 2005 para o sistema binário. Do mesmo modo, o circuito da câmera transforma a sequência dos valores numéricos das amostragens obtidas (lembra) em números binários, entendíveis pelos computadores. É claro que você já imaginou o tamanho da "encrenca", o que nos leva a quarta fase da obtenção de imagens digitais: a compressão.
Um exemplo simples para entender esse processo: ao invés de repetir vários "0"s em sequência por exemplo, poderíamos trocá-los por uma indicação do tipo "aqui vão vir 15 zeros", que ocuparia menos espaço. Este é um dos processos de compressão mais básicos, mas outros são empregados em conjunto, bem mais sofisticados e engenhosos. A partir de determinado ponto, o sinal pode ser ainda mais comprimido, mas a custa de perdas de qualidade. Pouca perda pode ser imperceptível mas muita perda começa a ficar ruim. É assim que temos os diversos algoritmos de compressão e formatos de vídeo que os empregam em parte, mais ou menos ou de nenhuma forma, resultando em diferentes qualidades, conforme o objetivo a que se destinam.
E agora, o que você queria saber: por quê imagens digitais não tem perda ao serem copiadas? Porque copiar "zeros" e "uns" não acarreta perda. Como a informação só pode ser ou "zero" ou então "um", se houver alguma falha na transmissão existem inúmeros mecanismos que efetuam cálculos e conseguem restaurar o valor original. De novo, com um exemplo simples: se a voltagem no cabo, em determinado ponto ao invés de ser equivalente a "1" passou a ser "0,7" , o sistema pode deduzir que deveria ser "1", pois não existe valor diferente de "0" ou de "1". Da mesma forma, um valor registrado como "0,3" só pode ser "0". O exemplo é precário, mas suficiente para dar a idéia do que acontece dentro dessas maravilhosas máquinas do nosso mundo moderno, os computadores e suas versões miniaturas, os processadores que existem dentro das câmeras digitais.
Assinar:
Postar comentários (Atom)


Nenhum comentário:
Postar um comentário