Dicas úteis

A história do desenvolvimento de placas de vídeo

Talvez nenhum dos componentes de um computador seja objeto de adoração como um adaptador gráfico para PC. Os adeptos deste culto são numerosos fãs de jogos de computador que, sem hesitação, podem gastar uma quantia considerável na próxima atualização por causa de uma bela imagem lisa. Esse dinheiro alimenta continuamente o desenvolvimento de adaptadores novos e mais poderosos: e esses dispositivos estão se desenvolvendo muito mais rápido do que as unidades centrais de processamento. Mas apenas 30 anos atrás, ninguém poderia ter imaginado isso. Vamos voltar para aqueles tempos e considerar como tudo começou.

Sem gráficos

A primeira placa gráfica para um PC é considerada o adaptador de vídeo MDA (Monochrome Display Adapter), que fazia parte do famoso IBM PC (1981), o fundador da família de PCs compatíveis com PC. Ao contrário de seus antecessores, integrado na placa-mãe do computador, o IBM MDA foi montado em sua própria placa e instalado no slot do barramento XT universal. Na verdade, era um controlador de vídeo simples que exibe o conteúdo da memória de vídeo na tela. Mesmo o RAMDAC obrigatório para adaptadores posteriores estava faltando pela simples razão de que o sinal gerado pelo MDA para o monitor era digital. Além do próprio chip controlador de vídeo, a placa MDA carregava 4 KB de memória de vídeo, um chip ROM com uma fonte e um gerador de clock.

Curiosamente, o primeiro adaptador de vídeo para o IBM PC era totalmente baseado em texto, ou seja, não tinha um modo gráfico de operação. Ao mesmo tempo, a maioria dos PCs daqueles anos sabia como trabalhar com gráficos. Qual é o motivo de tal desconsideração pelos gráficos por parte da IBM? É uma questão de posicionamento. Naqueles anos, a capacidade do computador de "desenhar" na tela estava fortemente associada a jogos e outras atividades frívolas e, do ponto de vista da empresa, um computador comercial era completamente desnecessário.

O que o MDA fez? Bastante para o seu tempo. Na tela do monitor, ele pode exibir 25 linhas de 80 caracteres cada, com cada caractere ocupando uma matriz de 9x14 pixels. Ou seja, proporcionava uma resolução de 720x350 pixels, portanto o texto por ele exibido tinha uma alta definição não disponível para os concorrentes. Além disso, cada caractere pode ter um de cinco atributos: fonte regular, sublinhado, brilhante, piscando, inverso. Obviamente, o MDA foi usado exclusivamente com monitores monocromáticos (cor única). Outro recurso do adaptador era a presença de uma porta de impressora, o que economizou cerca de US $ 100 para os usuários, o que custou um controlador separado.

Irmão frívolo

No entanto, o IBM PC não teria ganhado tanta popularidade se não tivesse os recursos gráficos. Para um uso menos sério de seu PC, a IBM preparou outro adaptador gráfico chamado CGA (Color Graphics Adapter), lançado no mesmo 1981. Fornecendo uma resolução de imagem não tão alta quanto o MDA, o CGA podia funcionar em muitos modos diferentes - texto e gráficos, para os quais era necessário equipá-lo com 16 KB de memória de vídeo.

Como o MDA, o CGA podia exibir 25 linhas de 80 ou 40 caracteres, mas a resolução de cada caractere era de apenas 8x8 pixels. Mas os símbolos podem ter 16 cores diferentes.

Os gráficos CGA podem ser produzidos em um dos três modos: 640x200 com cores de 1 bit (modo monocromático), 320x200 pixels com cores de 2 bits (4 cores), 160x100 pixels com cores de 4 bits (16 cores). Este último era tecnicamente uma emulação de gráficos usando o modo de texto (ou seja, os pixels foram simulados por símbolos que eram um quadrado de 8x8 pixels preenchido pela metade).

O adaptador CGA foi equipado com a mesma porta de 9 pinos do MDA e também transmitiu o sinal de vídeo em formato digital, além de ter uma saída composta para conexão a uma TV em cores. Ele poderia funcionar com um display MDA monocromático convencional. Essa compatibilidade continuou até o EGA mais avançado lançado em 1984.

Mais cor, mais clareza

Assim, a evolução dos adaptadores gráficos seguiu no caminho de aumentar a resolução e a cor da imagem.O EGA (Enhanced Graphics Adapter, 1984) pode exibir gráficos com uma resolução de 640x350 pixels em cores de 4 bits (16 cores). A quantidade de memória de vídeo aumentou primeiro para 64 kb e depois para 256 kb, o que permitiu ao EGA operar com várias páginas de memória de vídeo. Isso proporcionou alguma aceleração gráfica: o processador pode gerar vários quadros de imagem ao mesmo tempo.

Agora parece estranho, mas esses adaptadores de vídeo primitivos reinaram no mercado por anos. Portanto, até 1987, em PCs compatíveis com PC, as regras EGA eram incontestáveis ​​e os usuários não podiam imaginar o que poderia ser melhor. O que aconteceu em 1987? VGA apareceu.

O novo adaptador de vídeo foi originalmente planejado para a nova geração de PCs IBM PS / 2. Essa família, em cujo design os desenvolvedores se desviaram dos princípios da arquitetura aberta, na verdade fracassou no mercado, mas muitas soluções nela aplicadas ganharam destaque na Life. MCGA (Multi-Color Graphics Array), o mais novo adaptador de vídeo embutido na placa-mãe de computadores PS / 2, logo foi lançado como uma placa para o barramento ISA e foi chamado de VGA (Video Graphics Array).

O novo produto proporcionou saída gráfica com resolução de 640x480 pixels com 16 cores ou 320x240 pixels na cor de 8 bits (256 cores). Já parecia um pouco com algo fotorrealístico. Como o adaptador foi originalmente desenvolvido para PS / 2 incompatível, seus desenvolvedores, sem sombra de dúvida, criaram uma nova interface de vídeo analógica para ele - D-Sub de 15 pinos, que se tornou um novo padrão por muitos anos e ainda é usado nos sistemas de orçamento. É importante ressaltar que o VGA era um software compatível com EGA, CGA e MDA: os aplicativos desenvolvidos para adaptadores legados podiam ser executados no novo.

256 kb de memória de vídeo permitia armazenar vários quadros e uma fonte customizada adicionalmente, e ao usar todo o volume para um único quadro, era possível exibir uma imagem em uma resolução inédita de 800x600 pixels na época, embora esse recurso não fosse documentado e raramente usado.

Um pouco mais rápido

Seguindo a história do MDA e do CGA, a IBM desenvolveu dois adaptadores de vídeo para PS / 2 ao mesmo tempo: MCGA integrado (VGA) e 8514 / A. melhorado. Fornecido como uma atualização PS / 2 opcional, o 8514 / A pode exibir uma resolução de 1024x768 pixels com cores de 8 bits. Mas as inovações tecnológicas não param por aí. Pela primeira vez, os desenvolvedores pensaram em transferir parte do trabalho de preparação do quadro para os ombros do adaptador de vídeo e forneceram ao 8514 / A algumas funções de aceleração gráfica.

O adaptador aprendeu a desenhar linhas de forma independente em sua memória, preencher uma parte do quadro com cor e aplicar uma máscara de bits. Para os aplicativos gráficos daqueles anos, essa foi uma ajuda inestimável: mesmo ao construir diagramas, a aceleração era perceptível e os aplicativos gráficos de engenharia até ganharam muitas vezes em desempenho. Claro, todo esse suporte de software exigia, e o novo adaptador logo o recebeu.

Devo dizer que, naquela época, as estações gráficas profissionais já estavam equipadas com coprocessadores gráficos adicionais localizados em placas separadas. Esses dispositivos eram muito caros e, ao mesmo tempo, tinham recursos muito amplos. O 8514 / A era muito menos capaz, mas também era relativamente barato, que era e ainda é a qualidade mais valiosa no setor de PCs.

E em 1990, o 8514 / A foi substituído na forma de um adaptador XGA (Extended Graphics Array), que tinha funcionalidade ligeiramente expandida. O novo adaptador tem um modo de 800x600 pixels com cor de 16 bits (o chamado High Color, 65.536 cores), caso contrário era semelhante ao seu antecessor. Começando com o XGA, uma variedade de adaptadores SuperVGA começou a dominar o mercado, e a quantidade de memória e resoluções disponíveis começaram a crescer a cada ano. Como resultado, ficou cada vez mais difícil surpreender o usuário com a clareza e a cor da imagem. Como então vender novos itens caros? Novas funções, até então não reclamadas e sem precedentes, eram necessárias. E eles apareceram.

Primeira etapa em 3D

A conhecida empresa S3 tornou-se pioneira na aceleração de gráficos 3D para PCs. O adaptador S3 Virge foi o sucessor do altamente bem-sucedido Trio 64V +, ao mesmo tempo em que oferece suporte a até 4 MB de DRAM ou VRAM.Seu núcleo gráfico e memória de vídeo funcionavam a 80 MHz, o que não é nada impressionante atualmente.

A inovação mais interessante no Virge é o suporte para funções de aceleração de gráficos 3D. Eles não podiam proporcionar um aumento sério na velocidade dos jogos da época, além disso, a renderização por software (por meio da CPU) muitas vezes funcionava mais rápido do que a renderização por hardware no Virge. Mas, com esses recursos, os desenvolvedores de jogos podiam embelezar seus produtos com tecnologias inovadoras, como iluminação dinâmica e filtragem de textura bilinear.

Inspirado por seu papel como um pioneiro, S3 decidiu assumir o nicho de aceleradores 3D de consumidor. Assim, foram celebrados contratos com os fabricantes de títulos de jogos conhecidos: Tomb Raider, Mechwarrior 2, Descent II receberam suporte para o padrão S3D. Os profissionais de marketing da empresa concluíram que, ao estender seu próprio padrão às funções de aceleração 3D, eles obterão uma vantagem significativa sobre os concorrentes. Em teoria, o S3 Virge também suportava alguns dos recursos do padrão gráfico profissional OpenGL 3D, mas o desempenho usando as bibliotecas desse padrão era completamente insatisfatório. O suporte ao Direct 3D também foi anunciado, mas não existiam e nem mesmo foram planejados: naquela época, quase todos os jogos eram lançados em MS-DOS.

Os planos em grande escala da S3 não estavam destinados a se tornar realidade: já em 1996, a 3Dfx lançou o acelerador 3D Voodoo Graphics, que garantiu seu domínio na indústria. Virge não teve chance; nos anos seguintes, o adaptador passou por várias atualizações, mas nunca conseguiu sair do papel de uma placa de vídeo 2D barata.

Era dos Monstros

De que profundidade a até então desconhecida empresa 3Dfx saiu? Em 1994, três especialistas que trabalhavam para uma empresa muito conceituada na área de gráficos profissionais da Silicon Graphics decidiram mudar de emprego. Ross Smith, Harry Tarolly e Scott Sellers chamaram a atenção para o crescimento do mercado de consoles de videogame, que já possuía bons gráficos 3D. Partindo da simples ideia de que apenas falta o desempenho 3D para o boom dos jogos de PC, o 3DfX surgiu.

Depois de receber vários empréstimos, os fundadores da empresa começaram a trabalhar. A experiência inicial e o capital 3Dfx ganharam com o lançamento de chips gráficos para consoles de jogos, mas um ano depois apareceu o primeiro produto para PCs - Voodoo Graphics. A novidade apresentada na Computex causou sensação: a suavidade e a beleza da renderização da cena 3D espantou a imaginação. Em termos de qualidade gráfica, o acelerador ultrapassou em muito os consoles Sony PlayStation e Nintendo 64, que na época nem haviam sido lançados ainda.

Assim como o Virge, o Voodoo Graphics tinha suporte para OpenGL e DirectX, mas a velocidade era "ruim". Mas ao trabalhar com a interface do software proprietário da Glide, a Voodoo Graphics se saiu muito bem. Muitos fabricantes de jogos começaram imediatamente a otimizar seus produtos para o novo acelerador: os concorrentes pareciam pálidos em relação ao seu pano de fundo, para dizer o mínimo. O modo gráfico máximo do Voodoo Graphics não parecia muito impressionante - apenas 640x480 pixels com cores de 16 bits, mas então parecia que isso era mais do que suficiente para gráficos 3D.

Estruturalmente, o Voodoo Graphics era um adaptador instalado e um slot PCI, mas não tinha as funções de uma placa de vídeo 2D. Ele foi conectado ao monitor em série com um adaptador de vídeo convencional e assumiu o controle ao alternar para o modo 3D. A princípio, essa abordagem parecia promissora: não era uma tarefa trivial fornecer uma imagem 2D de alta qualidade naquela época, e a capacidade de combinar um acelerador 3D com um mapa 2D obviamente de alta qualidade era muito apreciada por muitos usuários. Como contra-exemplo, podemos citar o acelerador Rendition Verite V1000 3D, lançado no mesmo ano de 1996, que tinha as funções de uma placa de vídeo 2D, mas visivelmente "desbotava" a imagem em altas resoluções. Pela mesma razão, Voodoo Rush, que apareceu em 1997, não teve sucesso, que era uma placa de vídeo completa com um núcleo 3D da Voodoo Graphics.

A bordo Voodoo Graphics tinha 4 MB EDO DRAM, funcionando, como o processador, a 50 MHz. A queda nos preços no final de 1996 para esse tipo de memória permitiu que a 3Dfx vendesse seus chipsets de forma relativamente barata, o que aumentou ainda mais sua popularidade.Observe que a empresa não produziu os adaptadores, apenas forneceu os chipsets para seus parceiros. O adaptador Diamond Monster 3D é o mais amplamente utilizado, por isso os produtos baseados em chips 3Dfx são chamados de "monstros" na vida cotidiana.

Segundo escalão

Além do 3Dfx jovem e inicial, as empresas mais antigas também estavam tentando conquistar sua participação no mercado. Assim, a ATI, fundada em 1985 com o advento da Voodoo Graphics, já tinha nome e experiência, a começar pela produção de clones do IBM 8514 / A. Em 1995, seu ativo foi listado como ATI 3D Rage - um adaptador com recursos básicos de aceleração 3D, excelente qualidade gráfica 2D e funções avançadas de processamento de hardware para fluxo de vídeo MPEG-1 comprimido. Em meados de 1996, a empresa lançou o 3D Rage II, que oferecia o dobro do desempenho 3D de seu antecessor e era capaz de processar vídeo MPEG-2 (DVD). O adaptador suportava Direct3D e parcialmente OpenGL, era equipado com 8 MB de SDRAM e funcionava a 60 MHz (CPU) e 83 MHz (memória). Em termos de desempenho em renderização 3D, o novo produto era notavelmente inferior a muitos concorrentes, mas a placa encontrou seu uso graças a uma boa imagem 2D e ao início da aceleração de vídeo por hardware.

A NVIDIA era apenas dois anos mais velha que o 3Dfx e já em 1995 lançou seu primeiro produto desastroso. O adaptador NV1 foi bem concebido e combinou um adaptador 2D, acelerador 3D, adaptador de som e até mesmo uma porta de gamepad Sega Saturn. O produto acabou por não ser barato, enquanto a unidade de aceleração 3D tinha uma arquitetura bastante inusitada: a cena 3D foi construída não a partir de polígonos, mas a partir de curvas de terceira ordem. Os desenvolvedores de jogos desconfiavam de uma abordagem tão original, repleta de muitas dificuldades na programação de um mecanismo 3D, e o advento do Direct3D, que usa polígonos, finalmente pôs fim ao NV1.

Vale a pena dar à NVIDIA o que lhe é devido: tendo perdido muito dinheiro e muitos funcionários, já em 1996 conseguiu lançar um produto novo e completamente diferente. NVIDIA Riva 128, baseado no chip NV3, tinha 4 MB (8 MB na versão Riva 128ZX) de SDRAM com largura de barramento de 128 bits e funcionava a 100 MHz. Tendo uma boa parte 3D, comparável em desempenho com Voodoo Graphics, Riva 128 foi produzido para PCI e AGP (dos quais os "monstros" não podiam se gabar), e conseguiu tirar a NVIDIA do abismo financeiro. No entanto, a paridade com o produto 3Dfx era muito condicional: eles eram iguais apenas no Direct3D pouco usado naquela época ...