O mundo real é analógico, não digital. Durante séculos, fizemos analogias. Fazer analogia é copiar, imitar, tentar reproduzir algo da maneira mais fiel ao original. Foi assim que o homem das cavernas começou a fazer desenhos nas pedras, tentando registrar ali a imagem dos animais que via e também dele próprio. Embora muito toscas, essas primeiras imagens traziam o germe de uma importante descoberta - para o homem dessa época: a de que era possível criar e guardar reproduções da vida que o cercava. O processo analógico envolvido consistia em copiar as formas básicas do contorno dessas pessoas e objetos, tentando reproduzi-las nas paredes das cavernas através de riscos, que formavam imagens em duas dimensões.

Mais tarde na escala evolutiva do homem surgiram outras opções para o registro de imagens, empregando por exemplo pincéis e tintas em cores variadas. O processo analógico aprimorava-se: é assim que temos registros sem conta de cenas e de pessoas da época antiga. Reis, rainhas e personagens simples do cotidiano tiveram suas imagens registradas nas telas dos pintores: durante muito tempo, ao lado da gravura e da escultura, a pintura era o único método de captação da realidade, muitas vezes mesclada com a imaginação dos artistas. Surge então o processo químico: com o auxílio de lentes, consegue-se registrar com grande fidelidade uma determinada imagem projetada sobre uma superfície preparada com substâncias especiais sensíveis à luz. O processo, conhecido como fotografia ("escrever com a luz"), baseia-se em um conceito fundamental para o registro de qualquer imagem, um conceito muito simples, tão simples que às vezes é preciso até um pouco de raciocínio para enxergá-lo. É o conceito de contraste: só através do contraste é possível existir uma imagem. Um quadro totalmente preto ou então totalmente branco não mostra imagem alguma. A imagem é formada pelos meio-tons, ou seja, pela variação da intensidade da luz refletida pelas pessoas e pelos objetos. É essa variação que forma os contornos, dá forma aos volumes e uma infinidade de outras características que nos permite reconhecer o que ali foi registrado.

Desta forma, qualquer mecanismo que possuirmos ou inventarmos que possa registrar, individualmente, em cada ponto de uma determinada superfície, a intensidade maior ou menor da luz ali presente, permitirá registrar uma imagem qualquer projetada nessa superfície. Projetar imagens, através de lentes por exemplo, é projetar luz, em diversas intensidades para cada um desses pontos. O processo químico da fotografia permitia esse registro, expondo à luz cristais de prata que mudavam suas características continuamente com essa exposição. Interrompida a luz, a modificação nos cristais também interrompia-se. Aí estava o pulo do gato: como imagens possuem pontos mais claros e outros mais escuros (o contraste de que falamos), bastava expor uma superfície carregada desses cristais à luz de uma imagem projetada pelas lentes: onde havia mais claridade, a transformação dos cristais era mais intensa, onde havia menos, menos intensa. Se a superfície ficasse um tempo enorme exposta à essa imagem, todos os cristais acabariam se modificando igualmente e não teríamos contraste algum - não teríamos imagem alguma. O segredo estava em interromper a exposição depois de determinado tempo e, sem deixar essa superfície receber mais luz alguma, levá-la (mantendo-a protegida da luz) para um local escuro, onde os cristais eram "lavados" com produtos químicos especiais, para que não se modificassem mais com a luz, a chamada revelação.

A analogia existente no processo é a correspondência entre pontos claros / escuros dos objetos e pessoas com pontos claros / escuros no papel fotográfico. O cinema nada mais é do que essas fotos captadas e exibidas em determinada velocidade. Surge então a TV e anos depois o vídeo. De novo o processo analógico está presente: desde a época dos antigos tubos de imagem até a dos CCDs (Charge Coupled Device) e dos CMOSs (Complementary Metal Oxide Semiconductor), sempre o primeiro registro de uma imagem é analógico. E não só as imagens, como também o som: câmeras e gravadores digitais começam a captura tanto da luz como do som (através de microfones) sempre de forma analógica. Isso porque, como foi dito no início, nosso mundo é e sempre será "analógico". Os pontos de luz, mais claros ou mais escuros registrados nos cristais de prata da foto são nos CCDs e CMOSs registrados como pulsos variáveis de corrente elétrica. Quando você encobre com a mão parte das células de uma calculadora que funciona com energia solar, os números no visor escurecem um pouco. Essas células transformam luz em corrente elétrica, que alimenta o visor de cristal líquido da calculadora. Nas calculadoras que funcionam com baterias, bateria fraca causa o mesmo efeito. Ou seja, pouca luz, pouca corrente, muita luz, muita corrente: está feita a analogia entre pontos claros / escuros da imagem e sua transformação em energia elétrica. Os CCDs / CMOSs são painéis com milhares dessas células solares, uma para cada pixel (a menor unidade que compõe uma imagem).

Basta então "ler" de cima abaixo esse painel, repetidas vezes, enviando o sinal elétrico com voltagem variável (pixels mais ou menos claros) para ser gravado em uma fita. Este é, basicamente, o princípio de funcionamento de uma câmera de vídeo analógica.

O processo analógico sofre de uma grave deficiência: ainda que possa registrar imagens com grande fidelidade, não permite cópias fiéis dessa registro. A cada cópia feita (diz-se "geração") a imagem degrada um pouco, porque o sinal de vídeo (aquela seqüência de variação de voltagens em um sinal elétrico) sofre muitas interferências ao trafegar através dos cabos de um equipamento a outro. E não é só isso: perdas na qualidade ocorrem na leitura da fita, na gravação da fita e também dentro dos circuitos eletrônicos dos equipamentos pelos quais trafega.

Surgem então os computadores e com eles o mundo digital, cópia - por analogia - do nosso mundo real. Imagens digitais podem ser copiadas quantas vezes se desejar sem perderem qualidade alguma. Como isso é possível? Para que entendamos isso, vamos acompanhar, através de um exemplo simples, como é feito o registro digital de uma imagem em uma câmera. O primeiro passo é sempre o mesmo, por mais sofisticada que seja a câmera que estejamos utilizando: transformar variações de luminosidade de pixels em variações de voltagem de corrente elétrica, um processo essencialmente analógico. Computadores trabalham com números, e o que é preciso a seguir é reproduzir essa corrente variável em uma série de números.

Podemos imaginar um gráfico com 2 eixos (horizontal e vertical) e uma curva do tipo sobe/desce, para representar essas variações de voltagem. Pense na famosa curva do eletrocardiograma. Imaginou? Então, se medirmos de trechos em trechos a "altura" da curva (sua ordenada "y" para os amantes da matemática) e anotarmos esses valores, teremos um conjunto de números que poderemos utilizar, em um outro gráfico, para reproduzir o gráfico original. Basta desenhar outros dois eixos, marcar divisões no eixo horizontal correspondentes aos trechos que utilizamos no primeiro gráfico, e acima desses pontos marcar os pontos "y" que anotamos. Ao ligar os pontos, você terá uma curva.... bem, digamos, um pouco semelhante à curva original...

Mas podemos melhorar o processo: diminuindo os trechos no eixo horizontal de onde obtemos as ordenadas "y", teremos, para o mesmo gráfico, uma quantidade maior de pontos a serem desenhados no segundo gráfico. Ligando os pontos agora, dá para perceber que a precisão do desenho da curva aumentou. Na verdade o que aumentou foi a quantidade de amostras obtida. E isso nos leva ao segundo passo do registro de imagens pela câmera: obter amostras. É também um processo analógico, que transforma valores de voltagens em números. Quanto maior a amostragem, maior a precisão no registro da imagem.

Chega então o terceiro passo: digitalizar esses números todos. Computadores são máquinas extremamente complexas, baseadas em um conceito extremamente simples: o de "ligado" e "desligado". Numericamente falando, os famosos "1"s e "0"s que correspondem a esses estados, grandeza conhecida como "bit" em computação. O segredo está na altíssima velocidade com que essas máquinas trabalham com esses números de apenas 2 dígitos. Números de 2 dígitos correspondem ao sistema de numeração binário. Existem diversos sistemas de numeração, diferentes do decimal a que você está acostumado (dígitos de "0" a "9"). Em um micro qualquer é fácil brincar com uma calculadora no modo científico, através da qual dá para comprovar que "2005" é "7D5" e também "11111010101", nos sistemas decimal, hexadecimal e binário. Pois é, esse monte de zeros e uns é o resultado da conversão do número 2005 para o sistema binário. Do mesmo modo, o circuito da câmera transforma a sequência dos valores numéricos das amostragens obtidas (lembra) em números binários, entendíveis pelos computadores. É claro que você já imaginou o tamanho da "encrenca", o que nos leva a quarta fase da obtenção de imagens digitais: a compressão.

Um exemplo simples para entender esse processo: ao invés de repetir vários "0"s em sequência por exemplo, poderíamos trocá-los por uma indicação do tipo "aqui vão vir 15 zeros", que ocuparia menos espaço. Este é um dos processos de compressão mais básicos, mas outros são empregados em conjunto, bem mais sofisticados e engenhosos. A partir de determinado ponto, o sinal pode ser ainda mais comprimido, mas a custa de perdas de qualidade. Pouca perda pode ser imperceptível mas muita perda começa a ficar ruim. É assim que temos os diversos algoritmos de compressão e formatos de vídeo que os empregam em parte, mais ou menos ou de nenhuma forma, resultando em diferentes qualidades, conforme o objetivo a que se destinam.

E agora, o que você queria saber: por quê imagens digitais não tem perda ao serem copiadas? Porque copiar "zeros" e "uns" não acarreta perda. Como a informação só pode ser ou "zero" ou então "um", se houver alguma falha na transmissão existem inúmeros mecanismos que efetuam cálculos e conseguem restaurar o valor original. De novo, com um exemplo simples: se a voltagem no cabo, em determinado ponto ao invés de ser equivalente a "1" passou a ser "0,7" , o sistema pode deduzir que deveria ser "1", pois não existe valor diferente de "0" ou de "1". Da mesma forma, um valor registrado como "0,3" só pode ser "0". O exemplo é precário, mas suficiente para dar a idéia do que acontece dentro dessas maravilhosas máquinas do nosso mundo moderno, os computadores e suas versões miniaturas, os processadores que existem dentro das câmeras digitais.