componentes que formam um computador atual

de alguma forma mística são guardadas e processadas informações. Mas, de misterioso os
computadores não têm nada. Tudo funciona de maneira ordenada, e até certo ponto simples.
Hoje em dia, quase todo mundo com condições para pagar um curso, ou ter um PC em casa,
aprende muito rápido como usar o Windows ou mesmo o Linux, acessar a Internet, ou seja, usar o
micro. Mas, dentre todos estes usuários, poucos, muito poucos realmente entendem como a
máquina funciona. O que muda entre um processador Pentium ou um Athlon por exemplo? Por
que um PC com pouca memória RAM fica lento? Como funciona um disco rígido, e como é possível
armazenar uma quantidade tão grande de dados num dispositivo tão pequeno? O que fazem as
placas de vídeo 3D e em que tarefas elas são necessárias? Qual é a diferença entre uma placa de
som “genérica” e outra que custa mais de 100 dólares? Por que alguns modems são tão ruins?
Como um PC funciona??
O objetivo deste texto introdutório é lhe dar uma visão geral sobre os componentes que formam
um computador atual e como tudo funciona. Você encontrará também várias dicas de compra,
explicações sobre termos e convenções usadas, etc. O objetivo é servir como “o caminho das
pedras” para quem está começando a estudar hardware, e precisa de um empurrãozinho inicial
para poder estudar tópicos mais avançados.
Como funciona o sistema binário?
Existem duas maneiras de representar uma informação: analógicamente ou digitalmente. Uma
música é gravada numa fita K-7 de forma analógica, codificada na forma de uma grande onda de
sinais magnéticos, que pode assumir um número ilimitado de freqüências. Um som grave seria
representado por um ponto mais baixo da onda, enquanto um ponto mais alto representaria um
som agudo. O problema com esta representação, é que qualquer interferência causa distorções no
som. Se os computadores trabalhassem com dados analógicos, certamente seriam muito passíveis
de erros, pois qualquer interferência, por mínima que fosse, causaria alterações nos dados
processados e consequentemente nos resultados.
O sistema digital por sua vez, permite armazenar qualquer informação na forma de uma
seqüência de valores positivos e negativos, ou seja, na forma de uns e zeros. O número 181 por
exemplo, pode ser representado digitalmente como 10110101. Qualquer tipo de dado, seja um
texto, uma imagem, um vídeo, um programa, ou qualquer outra coisa, será processado e
armazenado na forma de uma grande seqüência de uns e zeros.
É justamente o uso do sistema binário que torna os computadores confiáveis, pois a possibilidade
de um valor 1 ser alterado para um valor 0, o oposto, é muito pequena. Lidando com apenas dois
valores diferentes, a velocidade de processamento também torna-se maior, devido à simplicidade

dos cálculos.
Cada valor binário é chamado de “bit”, contração de “binary digit” ou “dígito binário”. Um conjunto
de 8 bits forma um byte, e um conjunto de 1024 bytes forma um Kilobyte (ou Kbyte). O número
1024 foi escolhido pois é a potência de 2 mais próxima de 1000. Um conjunto de 1024 Kbytes
forma um Megabyte (1048576 bytes) e um conjunto de 1024 Megabytes forma um Gigabyte
(1073741824 bytes). Os próximos múltiplos são o Terabyte (1024 Gibabytes) e o Petabyte (1024
Terabytes)
Também usamos os termos Kbit, Megabit e Gigabit, para representar conjuntos de 1024 bits.
Como um byte corresponde a 8 bits, um Megabyte corresponde a 8 Megabits e assim por diante.
1 Bit = 1 ou 0
1 Byte = Um conjunto de 8 bits
1 Kbyte = 1024 bytes ou 8192 bits
1 Megabyte = 1024 Kbytes, 1.048.576 bytes ou 8.388.608 bits
1 Gigabyte = 1024 Megabytes, 1.048.576 Kbytes, 1.073.741.824 bytes ou
8.589.934.592 bits
Quando vamos abreviar, também existe diferença. Quando estamos falando de Kbytes ou
Megabytes, abreviamos respectivamente como KB e MB, sempre com o “B” maiúsculo. Quando
estamos falando de Kbits ou Megabits abreviamos da mesma forma, porém usando o “B”
minúsculo, “Kb”, “Mb” e assim por diante. Parece irrelevante, mas esta é uma fonte de muitas
confusões. Sempre que nos referimos à velocidade de uma rede de computadores, por exemplo,
não a medimos em bytes por segundo, e sim em bits por segundo: 10 megabits, 100 megabits e
assim por diante. Escrever “100 MB” neste caso, daria a entender que a rede transmite a 100
megabytes, que correspondem a 800 megabits.
Como tudo funciona
A arquitetura básica de qualquer computador completo, seja um PC, um Macintosh ou mesmo um
computador de grande porte, é formada por apenas 5 componentes básicos: processador,
memória RAM, disco rígido, dispositivos de entrada e saída e softwares.
O processador é o cérebro do sistema, encarregado de processar todas as informações. Porém,
apesar de toda sua sofisticação, o processador não pode fazer nada sozinho. Para termos um
computador funcional, precisamos de mais alguns componentes de apoio: memória, unidades de
disco, dispositivos de entrada e saída e finalmente, os programas a serem executados.
A memória principal, ou memória RAM, é usada pelo processador para armazenar os dados que
estão sendo processados, funcionando como uma espécie de mesa de trabalho. A quantidade de
memória RAM disponível, determina quais atividades o processador poderá executar. Um
engenheiro não pode desenhar a planta de um edifício sobre uma carteira de escola. Caso a
quantidade de memória RAM disponível seja insuficiente, o computador não será capaz de rodar
aplicativos mais complexos. O IBM PC original, lançado em 1981, por exemplo, possuía apenas 64
Kbytes de memória e por isso era capaz de executar apenas programas muito simples, baseados
em texto. Um PC atual possui bem mais memória: 64 MB, 128 MB ou mais, por isso é capaz de
executar programas complexos.
A memória RAM é capaz de responder às solicitações do processador numa velocidade muito alta.
Seria perfeita se não fossem dois problemas: o alto preço e o fato de ser volátil, ou seja, de perder
todos os dados gravados quando desligamos o micro.

Já que a memória RAM serve apenas como um rascunho, usamos um outro tipo de memória para
guardar arquivos e programas: a memória de massa. O principal dispositivo de memória de
massa é o disco rígido, onde ficam guardados programas e dados enquanto não estão em uso ou
quando o micro é desligado. Disquetes e CD-ROMs também são ilustres representantes desta
categoria de memória.
Para compreender a diferença entra a memória RAM e a memória de massa, você pode imaginar
uma lousa e uma estante cheia de livros com vários problemas a serem resolvidos. Depois de ler
nos livros (memória de massa) os problemas a serem resolvidos, o processador usaria a lousa (a
memória RAM) para resolvê-los. Assim que um problema é resolvido, o resultado é anotado no
livro, e a lousa é apagada para que um novo problema possa ser resolvido. Ambos os dispositivos
são igualmente necessários.
Os sistemas operacionais atuais, incluindo claro a família Windows, permitem ao processador usar
o disco rígido para gravar dados caso a memória RAM se esgote, recurso chamado de memória
virtual. Utilizando este recurso, mesmo que a memória RAM esteja completamente ocupada, o
programa será executado, porém muito lentamente, devido à lentidão do disco rígido.
Para permitir a comunicação entre o processador e os demais componentes do micro, assim como
entre o micro e o usuário, temos os dispositivos de I/O “input/output” ou “entrada e saída”.
Estes são os olhos, ouvidos e boca do processador, por onde ele recebe e transmite informações.
Existem duas categorias de dispositivos de entrada e saída:
A primeira é composta pelos dispositivos destinados a fazer a comunicação entre o usuário e o
micro. Nesta categoria podemos enquadrar o teclado, mouse, microfone, etc. (para a entrada de
dados), o monitor, impressoras, caixas de som, etc. (para a saída de dados).
A segunda categoria é destinada a permitir a comunicação entre o processador e os demais
componentes internos do micro, como a memória RAM e o disco rígido. Os dispositivos que fazem
parte desta categoria estão dispostos basicamente na placa mãe, e incluem controladores de
discos, controladores de memória, etc.
Como toda máquina, um computador, por mais avançado que seja, é burro; pois não é capaz de
raciocinar ou fazer nada sozinho. Ele precisa ser orientado a cada passo. É justamente aí que
entram os programas, ou softwares, que orientam o funcionamento dos componentes físicos do
micro, fazendo com que eles executem as mais variadas tarefas, de jogos à cálculos científicos.
Os programas instalados, determinam o que o micro “saberá” fazer. Se você quer ser um
engenheiro, primeiro precisará ir a faculdade e aprender a profissão. Com um micro não é tão
diferente assim, porém o “aprendizado” é não é feito através de uma faculdade, mas sim através
da instalação de um programa de engenharia, como o AutoCAD. Se você quer que o seu micro
seja capaz de desenhar, basta “ensiná-lo” através da instalação um programa de desenho, como o
Corel Draw! e assim por diante.
Toda a parte física do micro: processadores, memória, discos rígidos, monitores, enfim, tudo que
se pode tocar, é chamada de hardware, enquanto os programas e arquivos armazenados são
chamados de software.
Existem dois tipos de programas, chamados de software de alto nível, e software de baixo
nível. Estas designações não indicam o grau de sofisticação dos programas, mas sim com o seu
envolvimento com o Hardware.
O processador não é capaz de entender nada além de linguagem de máquina, instruções
relativamente simples, que ordenam a ele que execute operações matemáticas como soma e
multiplicação, além de algumas outras tarefas, como leitura e escrita de dados, comparação, etc.

Como é extremamente difícil e trabalhoso fazer com que o processador execute qualquer coisa
escrevendo programas diretamente em linguagem de máquina, usamos pequenos programas,
como o BIOS e os drivers de dispositivos do Windows para executar as tarefas mais básicas,
funcionando como intermediários, ou intérpretes, entre os demais programas e o hardware. Estes
programas são chamados de software de baixo nível. Todos os demais aplicativos, como
processadores de texto, planilhas, jogos, etc. rodam sobre estes programas residentes, não
precisando acessar diretamente ao hardware, sendo por isso chamados de softwares de alto nível.
É justamente por causa desta divisão que muitas vezes um novo dispositivo, uma placa de som
que acabou se ser “espetada” na placa mãe por exemplo, não funciona até que sejam instalados
os drivers que vem no CD ou disquetes que acompanham a placa. O Windows é capaz de perceber
a presença da nova placa, mas para usa-la, ele precisa do driver correto. O driver funciona como
uma espécie de intérprete, que converte os comandos usados pelo Windows nos comandos
entendidos pela placa e vice-versa.
O próprio Windows possui uma grande biblioteca de drivers, que permite instalar
automaticamente muita coisa, mas, muitos dispositivos, principalmente placas mais recentes,
lançadas depois da versão do Windows que estiver usando, não funcionarão adequadamente até
que sejam instalados os drivers corretos. Sem os drivers, é impossível fazer qualquer placa
funcionar, é como perder a chave do carro. Felizmente, hoje em dia é possível encontrar drivers
para praticamente qualquer tipo de placa, mesmo antiga, através dos sites dos fabricantes. Você
também encontrará vários links na sessão de drivers

Para instalar uma nova placa, o procedimento básico é sempre o mesmo. Depois de instalar
fisicamente a placa e ligar o PC, o Windows exibirá uma aviso de “novo Hardware encontrado”,
pedindo os drivers em seguida. Escolha a opção de procurar um driver para o dispositivo e mostre
a localização dos arquivos, seja uma pasta no CD-ROM, uma pasta do HD, um disquete, etc. Caso
tenha apontado os arquivos corretos, o Windows irá instala-los e o dispositivos passará a
funcionar.
Lembre-se que existem drivers específicos para cada sistema operacional. Se o modem tiver
apenas drivers para Windows 98 por exemplo, ele não funcionará no Linux, DOS ou outros
sistemas, a menos que o fabricante resolva disponibilizar novas versões do driver.
Continuando a explicação sobre software, não podemos nos esquecer do próprio sistema
operacional, que funciona como uma ponte entre o hardware e o usuário, automatizando o uso do
computador, e oferecendo uma base sólida apartir da qual os programas podem ser executados.
Continuando com os exemplos anteriores, o sistema operacional poderia ser definido como a
“personalidade” do micro. Um micro rodando o Linux por exemplo, dificilmente seria tão amigável
e fácil de operar quanto um outro micro rodando o Windows 98. Por outro lado, este último jamais
seria tão estável quanto um terceiro micro rodando o Windows 2000. As diferenças não param por
aí: Os programas desenvolvidos para rodar sobre um determinado sistema operacional quase
sempre são incompatíveis com outros. Uma versão do Corel Draw! desenvolvida para rodar sobre
o Windows 98, jamais rodaria sobre o Linux por exemplo, seria preciso reescrever todo o
programa, criando uma nova versão.
A interface dos vários sistemas operacionais também é diferente. No MS-DOS, por exemplo, temos
apenas um prompt de comando baseado em texto, enquanto no Windows temos uma interface
gráfica baseada em janelas.
Esta divisão visa facilitar o trabalho dos programadores, que podem se concentrar em desenvolver
aplicativos cada vez mais complexos, num espaço de tempo cada vez menor.
Fazer um programinha simples de controle de caixa em uma linguagem de baixo nível, como o
Assembler, por exemplo, tomaria pelo menos um dia inteiro de trabalho de um programador. Um

programa com as mesmas funções, feito em uma linguagem visual (ou de alto nível) como o
Visual Basic ou Delphi, tomaria bem menos tempo, e ainda por cima teria uma interface gráfica
muito mais bonita e amigável, já que muitas das funções usadas no programa já estariam
prontas.
Arquiteturas
Nos primórdios da informática, nas décadas de 50, 60 e 70, vários fabricantes diferentes
disputavam o mercado. Cada um desenvolvia seus próprios computadores, que eram
incompatíveis entre sí, tanto a nível de hardware, quanto a nível de software.
Apesar de executarem as mesmas operações básicas, praticamente tudo era diferente: Os
componentes de um não serviam em outro, os programas eram incompatíveis e, até mesmo as
linguagens de programação, eram diferentes.
Porém, com a popularização dos microcomputadores era inevitável uma padronização. No início da
década de 80, tínhamos basicamente apenas duas arquiteturas, ou “famílias” de computadores
pessoais diferentes: O PC, desenvolvido pela IBM, e o Macintosh, desenvolvido pela Apple.
Como era mais barato, o PC tornou-se mais popular, ficando o uso dos Macintoshs restrito a
nichos onde suas características peculiares o tornam mais atraente, como a edição de imagens ou
sons e editoração eletrônica.
Durante muito tempo, a própria Apple pareceu se conformar com a posição, lançando micros
voltados principalmente para o seguimento profissional. Atualmente, vemos uma aceitação maior
dos Macs, principalmente devido ao lançamento do iMac, mas os PCs ainda são a grande maioria.
Como os micros PC possuem uma arquitetura aberta, ou seja, a possibilidade de vários fabricantes
diferentes desenvolverem seus próprios componentes, baseados em padrões já definidos, temos
uma lista enorme de componentes compatíveis entre sí. Podemos escolher entre várias marcas e
modelos os componentes que melhor atendam nossas necessidades e montar nossa própria
configuração, assim como podemos escolher os materiais que serão usados para construir uma
casa. Também é possível melhorar posteriormente o micro montado através de upgrades,
trocando alguns componentes para melhorar seu desempenho.
Mesmo micros de grife, como os IBM, Compaq, Itautec, Dell, etc. também são micros montados,
já que quase todos os seus componentes são comprados de outros fabricantes. Temos, por
exemplo, um processador da Intel, um disco rígido da Quantum, uma placa mãe da Asus,
memórias da Kingstone, CD-ROM e drive de disquetes da Mitsumi, um monitor da LG, e por aí vai
:-) A diferença principal entre os micros montados e os micros de grife é que os últimos são
montados por grandes empresas e temos todo o suporte e garantia. Porém, adquirindo um micro
de grife, quase sempre pagamos mais caro e ao mesmo tempo não temos tanta liberdade para
configurar o micro a gosto.
Entretanto, o simples fato de comprar um micro de grife não é garantia de qualidade. Em geral
eles possuem uma qualidade bem superior à dos micros montados por lojas de informática por
exemplo. Porém, a necessidade de lançar micros de baixo custo, muitas vezes leva os grandes
fabricantes a lançarem verdadeiras bombas no mercado, usando componentes de baixíssima
qualidade. A lista é enorme, já tivemos casos de micros de grife que não traziam sequer memória
cache L2 (na época em que este ainda fazia parte da placa mãe). Pesquisando por aí, você irá
encontrar vários PCs de marcas conceituadas, usando placas PC-Chips, pouca memória RAM, etc.
“economias” que aumentam o lucro do integrador, deixando a bomba na mão do infeliz que
compra-los.

Os Componentes
Agora que você já entendeu o que se passa dentro do gabinete de um PC, que tal se
estudássemos a função dos seus principais componentes?
Você já deve estar familiarizado com a função do processador. Atualmente encontramos no
mercado vários processadores diferentes. Em ordem de evolução, podemos citar o 486, o Pentium,
o Pentium MMX, o K6, o K6-2, o Pentium II e o Celeron, o Pentium III, Duron e o Athlon.
Definimos o processador como o cérebro do micro. Pois bem, todo o cérebro precisa de um corpo,
que é justamente a placa mãe. Ela traz todos os componentes que permitem ao processador
comunicar-se com os demais periféricos, como discos rígidos, placas de vídeo, etc. Outra função
da placa mãe é acomodar e alimentar elétricamente o processador.
Cada processador precisa de uma placa mãe desenvolvida especialmente para ele pois, devido à
diferenças de arquitetura, os processadores possuem “necessidades” diferentes. Cada processador
possui um número diferente de contatos, ou terminais, opera usando uma voltagem diferente e
precisa de um conjunto de circuitos de apoio desenvolvidos especialmente para ele. O próprio
encaixe do processador muda de família para família. Você jamais poderá instalar um Athlon
numa placa mãe para Pentium III por exemplo.
Apesar das diferenças, normalmente as placas mãe são desenvolvidas para serem compatíveis
com mais de um processador. Uma placa mãe soquete 7 mais moderna, por exemplo, quase
sempre suportará desde um Pentium de 75 MHz até um K6-2 de 550 MHz, passando por
processadores Pentium MMX, K6 e Cyrix 6×86. Uma placa soquete 370 moderna por sua vez,
suporta processadores Celeron e Pentium III. Placas soquete A são compatíveis com os
processadores Athlon e Duron da AMD.
Mas a importância da placa mãe não para por aí. Ela determina quais componentes poderão ser
usados no micro (e consequentemente as possibilidades de upgrade) e influencia diretamente na
performance geral do equipamento. Com certeza, você não gostaria de gastar 200 ou 300 dólares
numa placa de vídeo de última geração, só para descobrir logo depois que não poderá instalá-la,
pois a placa mãe do seu micro não possui um slot AGP.

Para poder trabalhar, o processador precisa também de memória RAM, que é vendida na forma de
pequenas placas, chamadas de módulos de memória, que são encaixadas na placa mãe. Você

também ouvirá muito o termo “pente de memória” uma espécie de apelido, que surgiu por que os
contatos metálicos dos módulos lembram um pouco os dentes de um pente.
Todos os programas e arquivos são armazenados no disco rígido, também chamado de HD (Hard
Disk) ou Winchester. A capacidade do disco rígido, medida em Gigabytes, determina a quantidade
de arquivos e programas que será possível armazenar. O disco rígido também exerce uma grande
influência sobre a performance global do equipamento. O disco rígido é acomodado no gabinete e
ligado à placa mãe através de um cabo.

Outro componente essencial é o gabinete, a caixa de metal que acomoda e protege os frágeis
componentes internos do micro. O gabinete traz também a fonte de alimentação, responsável por
converter a corrente alternada da tomada (AC) em corrente contínua (DC) usada pelos
componentes eletrônicos. A fonte também serve para atenuar pequenas variações de tensão,
protegendo o equipamento.
A placa mãe, o processador, os módulos de memória e o disco rígido, são os quatro componentes
básicos do micro. Porém, por enquanto temos um equipamento “autista”, incapaz de receber ou
transmitir informações. Precisamos agora adicionar “sentidos” na forma de mais componentes. Os
essenciais são a placa de vídeo, que permite que o micro possa gerar imagens a serem mostradas
no monitor, teclado e mouse, que permitem ao usuário operar o micro.
Outros componentes permitem ampliar os recursos do micro, mas podem ser definidos como
opcionais, já que o computador pode funcionar sem eles:
O CD-ROM permite que o micro leia CDs com jogos ou programas. Caso o micro possua também
uma placa de som, você poderá ouvir também CDs de música. Existem também os drives de DVD,
que além de lerem CDs normais, lêem DVDs de programas ou filmes.
A placa de som permite que o micro gere sons, tocados por um par de caixas acústicas. A placa de
som também traz entrada para um microfone e para um joystick. Junto com um drive de CD-ROM,
a placa de som forma o chamado Kit multimídia.
O Fax-Modem permite a comunicação entre dois computadores usando um linha telefônica. Ele
permite a recepção e transmissão de faxes e o acesso à Internet. Hoje em dia, o Fax-Modem é um
componente praticamente obrigatório; afinal, um micro que não pode ser conectado à Internet
tem uma utilidade muito limitada.

Temos também o drive de disquetes, que apesar de ser um componente de baixa tecnologia,
ainda é necessário, pois os disquetes ainda são muito usados para transportar dados.
Além destes, temos uma gama enorme de acessórios: Impressoras, Scanners (que permitem
digitalizar imagens), câmeras fotográficas digitais (que ao invés de usarem negativos geram
imagens digitais), câmeras de vídeo conferência, placas de captura de vídeo e muitos outros.
Desktops, Notebooks, Handhelds e Palmtops
Durante a década de 70, os computadores eram classificados como computadores, minicomputadores
ou micro-computadores, de acordo com seu tamanho. Naquela época, “minicomputador”
era qualquer coisa do tamanho de um armário e os grandes computadores ocupavam
facilmente uma sala inteira.
Atualmente, os termos da moda são outros. Os computadores de mesa são chamados de
desktops. Os notebooks possuem os mesmos recursos dos micros de mesa, porém são mais
leves e consomem menos energia, visando aumentar a autonomia das baterias. Comparados com
os desktops, a vantagem dos notebooks é sua portabilidade e as desvantagens são os fatos de
serem mais caros, mais frágeis e menos confortáveis de usar. Os primeiros computadores
portáteis, lançados no início da década de 80 pesavam em média 12 quilos, enquanto os atuais
não costumam pesar mais do que 3 Kg. Para quem precisa de portabilidade, mas ao mesmo
tempo não abre mão de um micro com todos os recursos de um micro de mesa, os notebooks são
a solução mais acertada.

Porém, para quem precisa apenas de recursos mais básicos, como processamento de textos,
planilhas, agenda eletrônica ou apenas armazenar informações, os notebooks acabam sendo uma
solução cara e antiquada. Além do peso, temos uma autonomia relativamente baixa das baterias,
em geral 2 ou 3 horas, sem falar no tempo gasto para dar o boot e carregar o Windows toda vez
que o equipamento é ligado.
Apartir dos anos 90, tivemos a popularização de mais duas classes de computadores portáteis, os
handhelds e os palmtops. A idéia principal é criar aparelhos pequenos o suficiente para levar no

bolso, que sejam leves e consumam pouca energia, mas, ao mesmo tempo, capazes de executar
todas as funções básicas, como processamento de textos, planilhas, coleta de dados, acesso à
Internet, jogos, etc.
Os dois tipos de aparelho possuem conceitos bem diferentes. Os handhelds são uma espécie de
notebook em miniatura, com o mesmo desenho básico, com o teclado de um lado e a tela do
outro. Exemplos de handhelds são o Cassiopéia, HP 620, Psion Series 5 e Sharp HC-4600. Com
exceção do Psion, estes aparelhos utilizam o Windows CE, que é uma versão simplificada do
Windows 98, que apesar de não rodar os mesmos programas que temos nos micros de mesa,
possui versões compactas do Word, Excel e Power Point, além de permitir a instalação de
programas ou jogos desenvolvidos para ele.

Os palmtops por sua vez, são ainda mais compactos e não possuem teclado. O texto é ou digitado
sobre um teclado gráfico formado em parte da tela, ou então escrito à mão em um espaço
reservado. O exemplo mais famoso e bem sucedido de palmtop é o Palm Pilot da 3com, que utiliza
o PalmOS, um sistema operacional proprietário. O sucesso do Palm Pilot estimulou os
desenvolvedores a criar milhares de programas para ele, englobando praticamente todo o tipo de
aplicações, de cálculos científicos a jogos. Estima-se que em Dezembro de 2001 já existissem
mais de 75.000 programas, uma boa parte aplicativos freeware.
A Microsoft concorre com os Palms através do Pocket PC, uma versão reduzida do Windows que
roda em PCs de mesa. Em versões anteriores, este sistema era chamado de Windows CE. O nome
mudou apenas por questões de marketing.
Os Palmtops com o Pocket PC quase sempre trazem telas coloridas, processadores Arm de até 220
MHz, de 16 a 64 MB de memória, suporte a MP3, etc. configurações bem superiores às dos Palms
que trazem 2 ou 8 MB de memória, processadores DragonBall de 32 MHz e telas monocromáticas
na maioria dos modelos. Por outro lado, o Pocket PC também é um sistema muito mais pesado, o
que nivela o desempenho das duas classes.
Em todos os casos, é possível fazer a conexão com um micro de mesa para fazer backup das
informações gravadas, trocar arquivos e instalar novos programas.

aumenta. Os componentes são cada vez mais miniaturizados, o que traz como conseqüência um
ganho essencial no ramo dos portáteis: um consumo elétrico cada vez mais baixo.
Um 486 de 100 MHz processa 100 milhões de instruções por segundo e consome
aproximadamente 5 Watts de eletricidade. Um Mobile Pentium III de 500 MHz (a versão especial,
com um consumo elétrico ultra baixo) processa 1.5 bilhão de instruções, com apenas 3 watts. A
mesma proporção se mantém nos chips destinados a aparelhos portáteis.
Isto significa que os aparelhos portáteis são capazes de executar cada vez mais funções e rodar
aplicativos cada vez mais complexos. E esta é uma tendência que veio pra ficar.
Recentemente a Microsoft lançou uma versão do Windows destinada especialmente a micros de
mão e outros tipos de sistemas integrados, o Windows XP Embedded. O Linux pode ser facilmente
portado para várias arquiteturas e é o concorrente natural para o Windows também neste campo.
A diferença de recursos entre os PCs de mesa e um handheld está diminuindo rápido, embora a
diferença de preço também. Das agendas eletrônicas de 50 reais, saltamos para os iPaqs de 1500
reais.
Escolhendo a melhor configuração
Todos os componentes de um PC, influenciam diretamente no desempenho global da máquina.
Como num carro, onde um único componente de baixo desempenho afeta negativamente todo o
conjunto.
Apesar do desejo de todos ser um micro equipado com um processador topo de linha, muita
memória RAM, vários Gigabytes de espaço no disco rígido, placa de vídeo 3D, DVD, etc. Nem
todos estamos dispostos a gastar 2.000 ou 3.000 dólares numa configuração assim. Entra em
cena então o fator custo-beneficio: determinar qual configuração seria melhor dentro do que se
pode gastar. O objetivo deste trecho é justamente este, ajudá-lo a escolher a melhor configuração
em termos de custo-beneficio em cada caso. Para isto, estudaremos no que cada componente
afeta o desempenho e em quais aplicações cada um é mais importante.
A primeira coisa que deve ser levada em conta é a aplicação a que o micro será destinado, ou
seja: quais programas serão utilizados nele.
Um PC usado em um escritório, onde são usados o Word, Excel e Internet por exemplo, não
precisa de um processador muito poderoso, mas é indispensável uma quantidade pelo menos
razoável de memória RAM, e um disco rígido razoavelmente rápido. Enquanto que, num micro
destinado a jogos, o principal seria um processador rápido, combinado com uma boa placa de
vídeo 3D.
Escolhendo a placa mãe
A placa mãe é o componente que deve ser escolhido com mais cuidado. Uma placa mãe de baixa
qualidade colocará em risco tanto o desempenho quanto a confiabilidade do equipamento.
Ao comprar uma placa mãe, verifique quais processadores ela suporta, se possui um slot AGP e se
a quantidade de slots ISA e PCI é suficiente para a quantidade de periféricos que você pretende
instalar.

A questão mais importante é a qualidade da placa. Além dos recursos, este é o principal
diferencial entre as várias que você encontrará no mercado. Placas de baixa qualidade além de
prejudicarem o desempenho, podem tornar o micro instável, causando travamentos constantes no
Windows. Travamentos que freqüentemente são causados por falhas de hardware, e não por bugs
do programa.
Procure comprar placas de boas marcas, como Asus, Abit, Soyo e Supermicro. As placas da Intel
também são excelentes, mas preste atenção se a placa realmente foi fabricada pela Intel: muitos
vendedores vendem placas com chipsets Intel como “placas da Intel”. Muitos fabricantes usam
chipsets Intel em suas placas, mas isto não e garantia de qualidade. Não adianta uma placa de
segunda linha possuir um bom chipset.
Evite ao máximo comprar placas TX-Pro, VX-Pro, BX-Pro, SX-Pro, PC-100, Viagra, PC-Chips e
placas que não trazem especificado o nome do fabricante. Apesar de serem muito mais baratas, e
quase sempre trazerem placas de som, vídeo, modems e até placas de rede onboard, estas placas
invariavelmente são de baixa qualidade, fabricadas geralmente pela PC-Chips, especializada em
fabricar placas de baixíssimo custo mas de qualidade duvidosa.
Você pode perguntar por que estas placas são inferiores, já que muitas vezes usam o mesmo
chipset de placas de boas marcas. O diferencial é a qualidade da placa de circuito. Uma placa mãe
é confeccionada usando-se uma técnica chamada MPCB (multiple layer contact board) que
consiste em várias placas empilhadas como se fossem uma só. Acontece que uma placa de
circuitos deste tipo tem que ser projetada e fabricada minuciosamente, pois qualquer erro mínimo
na posição das trilhas, fará com que surjam interferências, que tornarão a placa instável. Isto
também prejudica o desempenho, impedindo que a comunicação entre os componentes seja feita
na velocidade normal. A diferença de desempenho de um micro montado com uma boa placa mãe,
para outro de configuração parecida, mas usando uma placa mãe de baixa qualidade pode chegar
a 20%. Equivaleria a trocar um Pentium II 800 por outro de 600 MHz!
A fim de cortar custos, diminui-se o tempo de desenvolvimento e se apela para técnicas mais
baratas e menos precisas de produção, criando os problemas que descrevi.
Certamente é tentador ver o anúncio de uma placa mãe que já vem com placa de som, placa de
vídeo e modem por 100 ou 120 dólares, enquanto uma placa de uma boa marca custa 150, 180
ou mesmo 200 dólares e muitas vezes não traz nenhum destes acessórios. Mas, lembre-se que
esta economia pode lhe trazer muita dor de cabeça, na forma de instabilidade, travamentos e
incompatibilidades. Estas placas podem até ser usadas em micros mais baratos, destinados a
aplicações leves, onde a economia é mais importante, mas não pense em usar uma em um micro
mais parrudo, pois não valerá à pena. Se o problema é dinheiro, prefira comprar um processador
mais simples e barato, mas colocá-lo em uma boa placa mãe.
Escolhendo os outros periféricos
Existem basicamente 4 determinantes de desempenho num micro: o processador, a quantidade de
memória RAM, a velocidade do disco rígido e a placa de vídeo. A importância de cada um varia de
acordo com a aplicação do micro.
Memória RAM
Se o micro possui pouca memória RAM, o processador terá que usar o disco rígido para guardar os

dados que deveriam ser armazenados na memória, tornando o sistema extremamente lento. Por
outro lado, instalar mais memória do que o necessário será apenas um desperdício, pois não
tornará o sistema mais rápido.
Você notará que é preciso instalar mais memória quando o micro começar a ficar lento e a acessar
intermitentemente o disco rígido em momentos de atividade mais intensa.
Se o usuário trabalha apenas com aplicativos mais leves, como Word, Excel, Internet e não
costuma abrir mais de um aplicativo ao mesmo tempo, 64 MB podem ser suficientes, apesar de
128 ser o ideal.
Se, por outro lado, são usados programas mais pesados ou se são abertos vários programas ao
mesmo tempo, então o mínimo seria 128 e o ideal 256 MB. 128 MB também são suficientes se o
micro se destina principalmente a jogos.
Caso o micro se destine ao processamento de imagens, vídeo ou editoração, então devem ser
usados pelo menos 192 MB. Dependendo do tamanho dos arquivos a serem processados, o ideal
pode subir para 256 ou mesmo 512 MB.
Hoje em dia os módulos de memória SDRAM (os usados na maioria dos PCs atuais) estão muito
baratos, por isso não vale mais à pena economizar em memória RAM. Mesmo que o PC se destine
a aplicativos leves, instale logo 256 ou mesmo 512 MB. É melhor pecar pelo excesso do que pela
falta.
Com mais memória o PC se manterá rápido por mais tempo. Não se esqueça que os programas
ficarão cada vez mais pesados com o passar do tempo. O que hoje pode até ser um desperdício,
amanhã será requisito mínimo para muitos sistemas.
A instalação de mais memória pode dar um novo ânimo a um micro mais antigo, principalmente
se o micro possui apenas 8 ou 16 MB. Mas não exagere, pois mesmo com muita memória será
difícil rodar aplicativos mais pesados devido à fragilidade do conjunto. O ideal seriam 16 megas
em micros 486 e de 32 a 64 MB em micros Pentium ou K6 de 100 a 166 MHz.
Processador
Nem sempre a instalação de um processador mais moderno torna o micro mais rápido. Muitas
vezes, aumentar a quantidade de memória ou trocar o disco rígido faz mais efeito. Como sempre,
depende da aplicação.
Caso o micro se destine principalmente a jogos, então vale à pena investir em um processador
topo de linha, como um Athlon ou um Pentium 4. Caso o micro de destine ao processamento de
imagens ou editoração, um processador topo de linha irá ajudar, mas apenas se o micro possuir
bastante memória RAM. Se o dinheiro estiver curto, é preferível comprar um processador médio,
como um Duron e investir em mais memória.
Finalmente, caso o micro se destine a aplicações leves, então o ideal será adquirir um processador
mais simples e investir a economia em um pouco mais de memória, um disco rígido melhor, ou
numa placa mãe de melhor qualidade.
Disco Rígido

O desempenho do disco rígido determina a velocidade em que serão abertos programas e
arquivos. Um disco rígido rápido, também ajuda caso o micro tenha pouca memória. Mesmo com
um processador parrudo e muita memória, tudo ficará lento caso o disco rígido não acompanhe.
Quase sempre, os discos rígidos de maior capacidade são mais rápidos, mas como sempre existem
exceções. Procure saber o tempo de acesso, a velocidade de rotação e a densidade do disco.
O tempo de acesso do disco varia geralmente entre 8 e 12 milessegundos, dependendo do HD. O
tempo de acesso determina quanto tempo a cabeça de leitura demorará para achar o dado a ser
lido. Um valor mais baixo corresponde a um melhor desempenho.
A velocidade de rotação é medida em RPMs, ou rotações por minuto. Quanto mais rápido o disco
girar, mais rápido um dado será encontrado. A densidade, ou quantos dados caberão em cada
disco também determina o desempenho, pois como os dados estarão mais próximos, serão
localizados mais rapidamente. Você saberá a densidade dividindo a capacidade total do disco
rígido pela quantidade de cabeças de leitura que ele possui (pois o disco possuirá um platter para
cada cabeça de leitura). Um disco de 6 GB, com 4 cabeças de leitura, por exemplo, possui
densidade de 1,5 GB por disco. Quanto maior a densidade melhor.
Placa de Vídeo
Como vimos, existem tanto placas de vídeo 2D, quanto placas de vídeo 3D. Caso o micro se
destine a jogos, ou processamento de imagens 3D (usando o 3D Studio por exemplo), é
indispensável o uso de uma placa de vídeo 3D, caso contrário o micro simplesmente não será
capaz de rodar o aplicativo ou ficará extremamente lento.
Se forem ser usados apenas aplicativos de escritório ou forem ser processadas imagens em 2D,
então uma placa de vídeo 3D não será necessária.
Existem tanto aceleradoras 3D, que devem ser usadas em conjunto com uma placa 2D comum
(Monster 1 e Monster 2 por exemplo), quanto placas Combo (as mais comuns), que desempenham
tanto as funções 3D quanto 2D (todas as placas atuais). Atualmente até mesmo as placas de
vídeo onboard estão vindo com recursos 3D, apesar do desempenho não se comparar com uma
placa mais parruda.
Modem
Atualmente, você só encontrará à venda modems de 56K, porém, encontrará tanto hardmodems
quanto softmodems. Os softmodems são os modems mais baratos, que costumam custar entre 20
e 40 dólares, porém tornam o micro mais lento (quanto mais potente for o processador menor
será a perda) e não se dão muito bem como jogos multiplayer jogados via modem ou com linhas
ruidosas. Os hardmodems, por sua vez, são os modems mais caros, que custam apartir de 80
dólares, mas executam eles mesmos todas as funções.
Placa de Som
A placa de som não influencia em nada o desempenho do micro, apenas determina a qualidade do
áudio. Para uso normal, uma placa de som simples como uma Sound Blaster 32, ou mesmo uma

daquelas placas “genéricas”, geralmente equipadas com chipsets Yamaha, dão conta do recado.
Placas mais caras farão diferença caso você pretenda trabalhar com edição musical, ou faça
questão de ouvir músicas em MIDI com o máximo de qualidade.
Existem também placas de som 3D, como a Turtle Beath Montego e a Sound Blaster Live, que
geram sons que parecem vir de todas as direções, mesmo usando caixas acústicas comuns. Este
efeito é muito interessante em jogos, pois oferece uma sensação de realidade muito maior.
Imagine ouvir o som de um tiro como se ele tivesse sido disparado por alguém que está bem atrás
de você.
Upgrades e atualizações
Fazer um upgrade, significa trocar alguns componentes de um micro já ultrapassado a fim de
melhorar seu desempenho. Porém, muitas vezes, o micro está tão desatualizado que seria preciso
trocar quase todos os componentes para conseguir atingir um desempenho aceitável. Neste caso,
compensaria mais vender o micro antigo e comprar um novo.
O segredo para realizar um bom upgrade, é detectar os “pontos fracos” da configuração,
componentes que possuem um desempenho muito inferior ao restante do conjunto. Para
exemplificar, analisarei agora algumas configurações:
Configuração 1:
Processador Pentium de 100 MHz
8 MB de memória RAM
HD de 1.2 GB
Placa de Vídeo de 1 MB
Monitor SVGA de 14 polegadas
Temos aqui um micro bem antigo, de configuração extremamente modesta, mas que tem um
grave ponto fraco: a pouca quantidade de memória RAM. O ideal aqui seria adicionar mais 32 MB
de memória, totalizando 40 MB, o que multiplicaria a velocidade do equipamento.
Também valeria à pena trocar o processador por um K6 ou Pentium de 200 MHz, já que neste
caso não precisaríamos trocar também a placa mãe.
Dois pentes de memória de 72 vias de 16 MB cada, e um processador de 200 MHz custam cerca
de 150 reais, que resultariam em um ganho de performance de pelo menos 300%. Note que neste
caso precisaríamos usar componentes usados. O disco rígido só deveria ser trocado caso o usuário
estivesse com problemas de espaço.
Configuração 2:
Pentium 233 MMX
32 MB de memória RAM
HD de 2.6 GB
Placa de vídeo de 2 MB
Monitor SVGA de 14 polegadas
Agora temos uma configuração equilibrada. As únicas mudanças viáveis seriam o aumento da
quantidade de memória para 64 MB ou a troca do disco rígido (caso o usuário esteja com
problemas de espaço).

Não seria uma boa idéia pensar em trocar o processador, pois para instalar um Pentium II,
Celeron, ou mesmo um K6-2 neste micro, teríamos que trocar também a placa mãe. Caso os
módulos de memória atuais sejam de 72 vias, o gasto seria ainda maior, já que as placas mãe
mais modernas possuem encaixes apenas para módulos de 168 vias o que nos obrigaria a trocar
também as memórias.
Caso o usuário do micro goste de jogos, ou pretenda trabalhar com imagens tridimensionais,
então uma placa de vídeo 3D, de um modelo mais simples, seria uma boa idéia.
Configuração 3:
Pentium II de 266 MHz
64 MB de memória RAM
HD de 2.2 GB
Placa de vídeo de 2 MB
Monitor SVGA de 15 polegadas
A primeira coisa a considerar neste exemplo seria a troca do processador por um Celeron de 500
ou 533 MHz, já que poderíamos trocar apenas o processador. Teríamos então um excelente
configuração, com exceção do disco rígido, muito pequeno e lento para um micro deste porte.
Seria uma boa idéia trocá-lo por um de 13 GB ou mais. Se fosse adicionada também uma placa de
vídeo 3D passaríamos então a ter praticamente um topo de linha. O aumento da quantidade de
memória para 128 MB deveria ser considerado caso o usuário tenha o hábito de trabalhar com
vários programas abertos ao mesmo tempo, ou tenha o hábito de abrir arquivos muito grandes.
As peças antigas, no caso o processador o disco rígido e a placa de vídeo poderiam ser vendidas
depois para cobrir parte do gasto do upgrade. Existe um mercado muito grande para discos rígidos
usados.
O melhor custo-beneficio
Simplesmente comprar o melhor micro que o dinheiro pode pagar, não é uma tarefa muito difícil,
basta comprar os melhores e em geral mais caros componentes, encher de memória RAM e voilà.
Porém, a não ser você seja algum milionário excêntrico, esta provavelmente não será uma boa
idéia. Você já deve ter percebido que no mundo da informática as coisas evoluem muito rápido. A
cada semana, novos componentes são lançados. Mas, prestando um pouco de atenção na ciranda
dos preços, você vai perceber duas coisas:
1- Em geral os fabricantes lançam novos componentes com pequenos avanços sobre os
anteriores, porém com um grande aumento de preço. No ramo dos processadores por exemplo, os
novos modelos são sempre apenas 33 ou 50 MHz mais rápidos que os anteriores. Na família
Pentium III, por exemplo, tivemos em menos de um ano, lançadas versões de 450, 500, 533, 550,
600, 650, 667, 700, 733, 750, 800 e 1000 MHz. Sempre que uma nova versão é lançada, as
anteriores caem de preço, e as muito antigas são retiradas do mercado. A diferença de preço entre
a versão topo de linha e a anterior, que é em geral apenas 5 ou 6% mais lenta, pode chegar a
quase 50%, e a diferença entre a versão mas rápida e a versão mais lenta encontrada à venda
(que em geral tem um desempenho apenas 35 ou 50% menor) pode ser de mais de 10 vezes! Por
exemplo, logo que o Pentium III de 1 GHz foi lançado, custava nos EUA, quase 1.000 dólares. Na
mesma época, as mesmas lojas (nos EUA), vendiam um Celeron de 500 MHz por cerca de apenas
50 dólares! No Brasil os preços claro são um pouco mais altos, mas a proporção é a mesma.

Em outras áreas, como no ramo de placas de vídeo 3D, a diferença não é tão gritante assim, mas
as placas topo de linha em geral custam 2 vezes mais do que as versões anteriores, sendo em
geral 25 ou 30% mais rápidas. No caso da memória RAM, não existe uma grande evolução em
termos de velocidade, porém muitas vezes é preciso trocar os módulos de memória ao atualizar
um sistema antigo, caso o sistema antigo utilize memórias de 72 vias por exemplo. No caso do
HD, o fator mais importante é a capacidade, mas o desempenho também é fundamental. Muitas
vezes um HD menor é muito mais rápido do que um de maior capacidade. No capítulo sobre HDs
você encontrará uma tabela comparativa entre os principais HDs à venda.
2- Nos últimos anos, os equipamentos evoluíram muito mas rapidamente do que os requisitos dos
programas. Ao contrário do que tínhamos a alguns anos atrás, um micro de dois anos atrás,
completamente ultrapassado pelos padrões atuais, pode rodar com desenvoltura quase todos os
aplicativos mais atuais. A menos que você trabalhe em uma área muito crítica em termos de
desempenho, como edição de vídeo por exemplo, muitas vezes você sequer notará muita
diferença entre o desempenho de um micro topo de linha e um equipamento um pouco mais
antigo, desde claro, que ambos estejam corretamente configurados.
Atualmente, temos apenas dois tipos de aplicativos que realmente utilizam todo o poder de
processamento de um micro topo de linha: aplicativos profissionais de renderização de imagens e
edição de vídeo e os jogos mais atuais. Isso não significa que estes aplicativos não rodem ou
fiquem muito lentos em um micro um pouco ultrapassado, mas que ficam mais rápidos, ou com
mais detalhes (no caso dos jogos) num micro topo de linha. Se vale à penas gastar duas vezes
mais num micro topo de linha para ter apenas um pouco mais de desempenho aí já é com você,
mas na minha opinião realmente não vale à pena, a menos que você realmente trabalhe com este
tipo de aplicativo, o que é raro.
Em aplicações mais leves, como processamento de textos, acesso à Internet, jogos um pouco mais
antigos (lançados a mais de 18 meses) e mesmo programas gráficos (com exceção apenas de
filtros e operações mais demoradas) a diferença para o usuário é mínima. Não se iluda muito com
os resultados mostrados nos benchmarks; qual seria a diferença, para você, se uma imagem
demorasse 2.5 segundos ao invés de apenas 1.5 segundos para ser aberta no Photoshop, ou se o
Word demorasse 0.5 segundo ao invés de apenas 0.35 segundo para abrir uma nova janela? Para
alguém que trabalha editando imagens e aplicado filtros e efeitos que muitas vezes demoram
horas para serem processados, talvez um ganho de 10 ou 15% de desempenho resultasse em um
grande ganho de produtividade, mas será que este é o seu caso?
Além de saber escolher os componentes com relação à qualidade, preocupe-se em se perguntar
“será que realmente vou precisar de tudo isso” quando for comprar um novo micro. Claro que não
vale à pena comprar um equipamento muito ultrapassado, mas também não vale à pena comprar
um topo de linha. O ponto ideal para você está em algum lugar destes dois extremos.
Benchmarks, medindo sem erros
Existem vários programas dedicados a medir a performance de um componente isolado, o HD por
exemplo, ou o desempenho do micro como um todo, neste caso simulando o trabalho de
programas do dia a dia.
Porém, é muito fácil forjar resultados, fazendo parecer que um produto é muito melhor do que o

do concorrente, mesmo sem distorcer os resultados obtidos pelo programa.
Em geral, um determinado componente, um processador por exemplo, mesmo que no geral seja
um pouco mais lento do que o do concorrente, sempre se sairá melhor do que ele em algumas
aplicações. Se for criado um programa de benchmark que privilegie estas operações que são
executadas mais rápido, temos o milagre de fazer um equipamento inferior parecer mais rápido.
No mundo capitalista, este tipo de estratégia, de divulgar as vantagens de um produto, ao mesmo
tempo que se esconde seus defeitos, é muito usada em todos os setores, não apenas no mundo da
informática. Por isso que em geral não se deve dar tanta atenção aos benchmarks divulgados
pelos próprios fabricantes. Muitos são honestos ao apresentar os resultados, mas outros não;
sempre nos deixando com o pé atras.
Mesmo em se tratando de testes feitos por pessoas bem intencionadas, sem nenhum tipo de
vínculo com os fabricantes, muitas vezes temos resultados errados, simplesmente por serem
usados programas de benchmark inadequados ou ultrapassados. Por exemplo, rodando o Norton
System Info para DOS, que é um benchmark bem antigo, em um Pentium de 200 MHz e em um
Pentium Pro também de 200 MHz, os resultados obtidos mostrarão o Pentium comum mais de
duas vezes mais rápido do que o Pentium Pro, quando na prática o Pentium Pro é muito mais
rápido. Usando o Wintune 97 em um Pentium MMX de 233 MHz e em um K6, também de 233
MHz, teremos resultados mostrando o K6 quase 50% mais rápido, quando na realidade os dois
processadores praticamente empatam. Estes são apenas dois exemplos de uma lista enorme.
Existem programas que realmente conseguem mostrar resultados bastante precisos. A Ziff Davis
por exemplo, desenvolve excelentes programas de bachmark para várias situações; para medir o
desempenho dentro de aplicativos de escritório, para medir o desempenho em gráficos 3D, etc.
Estes são os programas adotados nos testes da PC Magazine Americana, entre outras publicações.
Os programas da Ziff Davis podem ser encontrados em http://www.ziffdavis.com
Existem outros casos de bons programas claro, como por exemplo o BAPCo SYSMark,
SPECviewperf 6.1.1 entre outros.
A fim de medir corretamente a performance, é preciso executar testes relativamente demorados.
Esta é a principal diferença entre bons programas de benchmark e outros que mostram erros
gritantes, justamente o tempo do teste. Enquanto no Business Winstone da Ziff Davis, o teste
pode durar várias horas, no Wintune o teste dura poucos segundos. Em 99% dos casos, estes
testes rápidos são imprecisos.
Outro diferencial são as próprias configurações utilizadas para executar os testes. Para medir o
ganho de desempenho obtido na troca de um processador por outro ou de uma placa de vídeo por
outra, é preciso manter todos os demais componentes, drivers, mesma versão do sistema
operacional etc. mudando apenas o componente a ser testado. Caso contrário, outros
componentes contaminarão os resultados, tornando o teste impreciso. A simples troca do driver da
placa de vídeo entre os testes pode fazer um equipamento aparecer muito mais rápido ou lento
que o outro.
Naturalmente, é necessária também uma boa dose de bom senso e de conhecimento do quanto
cada componente utilizado influencia na performance de cada aplicativo. Por exemplo, certa vez vi
um teste feito por um site estrangeiro, que media a performance de vários processadores,
aplicando um filtro do Adobe Photoshop, chamado Gaussian Blur. Os resultados mostravam um
mero Celeron 450 quase 15% mais rápido do que um Pentium III de 600 MHz. Lógico que alguma
coisa tinha saído errado no teste. Vendo as configurações, foi fácil perceber que as máquinas
utilizadas no teste tinhas apenas 64 MB de memória RAM, enquanto o filtro utilizava arquivos de
imagem grandes, de 100 MB cada um. Como os micros não tinham memória suficiente, eram
obrigados a utilizar memória virtual para armazenar parte dos arquivos de imagem, fazendo com
que o desempenho do disco rígido contaminasse os resultados. No teste, o Celeron havia sido

equipado com um disco rígido mais rápido, heis o erro de configuração.
Moral da história: não acredite em todos os números que ver por aí. Lembre-se dos comerciais de
sabão em pó; nem sempre um produto é tão melhor que outro quanto parece; tudo depende das
condições onde os testes são realizados.
Tão importante quanto o programa de benchmark escolhido, são os conhecimentos da pessoa que
executar o teste, que deve ser capaz de escolher uma configuração ideal, eliminando qualquer
fator que possa contaminar os resultados.
Linguagens de programação
Os computadores são funcionários quase perfeitos. Fazem tudo o que mandamos, não reclamam,
não se importam de trabalhar até tarde da noite, não cobram hora extra nem tiram férias. Mas,
em compensação também não pensam. Para que façam qualquer coisa é preciso explicar tudo
com os mínimos detalhes e na língua deles.
Considerando que tudo o que os computadores conseguem entender são seqüências intermináveis
de números binários, fornecer estas “instruções” pode ser muito penoso para um ser humano.
Você consegue se imaginar lendo um manual de 5.000 páginas e decorando um a um centenas de
códigos binários que representam as instruções do processador?
Colocando a mão na massa
Mesmo com transístores de 0.13 mícron, mais de 30 milhões de transístores num único
processador e freqüências de operação acima de 1 GHz, os computadores ainda são
completamente incapazes de tomar sozinhos qualquer tipo de decisão, precisam ser orientados a
cada passo, afinal, são apenas máquinas.
Para conseguir que nossas máquinas burras possam fazer todas as coisas produtivas que vemos, é
preciso orientá-las através de softwares, que por sua vez são construídos usando alguma
linguagem de programação.
Um processador manipula apenas dados binários. Tantos os dados a serem acessados, quanto
cada uma das instruções que o processador é capaz de executar possuem um endereço binário
próprio. Se os programadores precisassem programar diretamente em binários, decorando
seqüências como 10111011101101101110110011001010 para cada instrução do processador e
para cada endereço de memória a ser acessado, provavelmente não teríamos mais
programadores… já estariam todos loucos :-)
Para facilitar as coisas, começaram a ser desenvolvidas as linguagens de programação, que
diferem na sintaxe e recursos, mas tem um ponto em comum, que é a existência de um
compilador. Seja programando em C, ou seja em Visual Basic, você usará um editor para escrever
seu programa, respeitando as regras da linguagem escolhida e em seguida rodará o programa
compilador, que interpretará os comandos que inclui no programa e os transformará em binários,
as instruções que são entendidas pelo processador. A vantagem é que você poderá trabalhar com
instruções como if, else, etc. além de todas as facilidades oferecidas pela linguagem ao invés de
gigantescos endereços binários. Sem dúvida muito mais simples.
Existem diversas linguagens de programação, meu objetivo é dar algumas noções básicas sobre
as peculiaridades e utilidade de cada uma:

Assembly
O Assembly foi provavelmente a primeira linguagem de programação da história, surgida na
década de 50, época em que os computadores ainda usavam válvulas. A idéia do assembly é usar
um comando em substituição a cada instrução de máquina.
No assembly, cada uma destas instruções, equivale a uma instrução do processador. Ao invés de
usar instruções como 10101011 você pode usar outras bem mais fáceis de entender e de
memorizar, como add, div, mul, and, or, not, etc. Você também pode criar variáveis, que são
pequenos espaços na memória RAM reservados para guardar algum tipo de dado, que o programa
precisará mais tarde. Você pode usar aquelas instruções que citei para lidar com elas. Por
exemplo, a instrução “add” faz com que o processador some duas variáveis; “add x, y” por
exemplo, soma os valores de x e y.
Apesar de ser exaustivamente trabalhoso, você pode perfeitamente desenvolver pequenos
programas em assembly, para isso só vai precisar de um compilador e bastante paciência para
aprender. Você pode baixar um gratuíto em http://www.web-sites.co.uk/nasm/ nesta mesma
página você vai encontrar alguns manuais que podem ajudar bastante.
O compilador transforma o código escrito em assembly em linguagem de máquina, que finalmente
poderá ser entendida pelo processador.
Existem também os decompiladores, que fazem o trabalho inverso, de transformar um programa
já compilado, em um código em linguagem assembly. Este recurso é chamado de engenharia
reversa. É assim que conseguem crackear programas, quebrar códigos de proteção (como o do
DVD), etc. Claro que para isso, é preciso alguém que conheça muito de assembly e que tenha
disposição para ficar estudando o código até encontrar o que procura.
Por causa desta característica de permitir trabalhar diretamente com as instruções do processador,
o assembly é chamado de linguagem de baixo nível. Existem também linguagens de alto nível,
como C++ ou Pascal, onde é possível usar várias funções já prontas ou mesmo linguagens visuais,
como o Visual Basic ou o Delphi, que são ainda mais fácies.
Como o compilador utiliza instruções específicas para o processador da máquina, é preciso
desenvolver uma versão diferente da linguagem para cada sistema onde se desejar usa-la.
Fortran
O Fortran foi uma das primeiras linguagens de alto nível da história. Enquanto o Assembly é
chamado de linguagem de baixo nível, por nele utilizarmos diretamente as instruções e endereços
do processador e memória, numa linguagem de alto nível temos várias funções prontas, o que
facilita muito a programação, mas em compensação torna em muitos casos o programa maior e
mais pesado, já que o compilador jamais conseguirá gerar um código tão otimizado quanto um
programador experiente conseguiria.
Fortran é a contração de “Formula Translator”. A primeira versão do Fortran foi criada no final da
década de 50, mas a linguagem começou a ser usada em larga escala apartir da metade da
década de 60, quando surgiram várias versões diferentes. Atualmente o Fortran é pouco usado.

Pascal
O Pascal é outra linguagem de alto nível, criada durante a década de 60. O Pascal é uma
linguagem bastante estruturada, com regras bastante rígidas, o que a torna difícil de usar. Apesar
de ter sido bastante usada até a década de 80, hoje em dia ela é usada apenas em alguns cursos
como ferramenta de aprendizado.
Cobol
Cobol significa “Common Business Oriented Language”. Esta linguagem foi desenvolvida no final
da década de 50, com o objetivo de ser uma plataforma de desenvolvimento para aplicações
bancárias e financeiras em geral. Comparado com o Pascal e o Assembly, comuns na época, o
Cobol é uma linguagem bastante amigável, o que garantiu uma grande aceitação. Até hoje esta
linguagem é usada em muitos sistemas bancários, o que explica a grande procura por
programadores experientes nesta linguagem na época do bug do ano 2000.
C
O C foi desenvolvido durante a década de 70, mas ainda é largamente utilizado. A grande
vantagem do C é permitir escrever tanto programas extremamente otimizados para a máquina,
como seria possível apenas em assembly, e ao mesmo tempo vir com várias funções prontas,
como uma linguagem de alto nível, que podem ser utilizadas quando não for necessário gerar um
código tão otimizado.
Esta flexibilidade, permitiu que o C fosse usado para desenvolver a maioria dos sistemas
operacionais, como o Unix, Linux e o próprio Windows. Usando o compilador adequado, o C pode
ser usado para desenvolver programas para várias plataformas diferentes.
C++
O C++ mantém os recursos do C original, mas traz muitos recursos novos, como recursos
orientados a objetos, sendo também bem mais fácil de utilizar. O C++ é bastante usado
atualmente para desenvolver muitos programas para várias plataformas.
Você pode baixar um compilador C/C++ gratuíto em http://www.delorie.com/djgpp/
O Linux conta com um grande número de ferramentas para desenvolvimento em C, como o EMacs,
o compilador GCC e até editores visuais, como o KDeveloper. Outro ponto forte é a fartura de
programas de código aberto, que representam uma fonte de aprendizado quase inesgotável. O
Linux é provavelmente o melhor lugar para aprender a programar em C.
Visual Basic
Por ser uma linguagem visual, o VB é extremamente fácil de usar, janelas, botões e muitas
funções já vem prontas, bastando ao programador usa-las em seus programas. O custo da

praticidade é o fato dos programas serem bem mais pesados do que equivalentes feitos em outras
linguagens, como em C e de rodarem apenas dentro do Windows
Delphi
O Delphi também é uma linguagem visual, baseada no Pascal. Hoje em dia, o Delphi divide com o
visual Basic a preferência da maioria dos programadores.
Apesar de também ter algumas deficiências, a opinião das maioria dos programadores é que de
uma forma geral, os programas escritos em Delphi são mais rápidos do que os desenvolvidos em
Visual Basic.
O Delphi possui uma versão for Linux, o Kylix, também desenvolvido pela Borland e gratuíto para
o desenvolvimento de softwares cobertos pela GNU. Os programas para Delphi 6 e Kylix rodam
nas duas plataformas, bastando que o código seja recompilado. O código desenvolvido em versões
anteriores precisa ser adaptado para rodar no Linux.
Naturalmente, além destas que citei, existem inúmeras outras linguagens, cada uma com seus
pontos fracos e fortes e determinada área onde é mais usada.
Redes
As redes são um campo cada vez mais importante ultimamente. Basta lembrar que a Internet, tão
essencial hoje em dia, nada mais é do que uma rede de computadores.
Existem várias arquiteturas de rede e novas são criadas a cada dia, mas felizmente, a tendência é
que sempre um único ou alguns poucos padrões sobrevivam em cada área.
O padrão Ethernet por exemplo se tornou quase onipresente nas redes cabeadas. Isso trouxe algo
muito positivo, que foi a facilidade em montar redes. Como todas as placas são compatíveis e os
cabos são padronizado, é muito fácil encontrar os componentes e o preço caiu muito.
Temos três padrões de redes Ethernet: de 10 megabits, 100 megabits e 1 gigabit. As placas são
intercompatíveis, mas ao combinar placas de velocidades diferentes, a rede passa a operar na
velocidade da placa mais lenta, a menos que você invista num switch, que é capaz de isolar as
transmissões, permitindo que cada placa opere na sua velocidade, sem prejudicar as demais.
Mas, afinal, o que é um switch?
Um switch é uma espécie de irmão mais velho do hub, os dois tem a mesma função, ou seja,
servir como um ponto central para a rede. Todas as placas de rede são ligadas ao hub ou switch e
é possível ligar vários hubs ou switchs entre sí caso necessário.
A diferença é que o hub apenas retransmite tudo o que recebe para todas as estações. Isto
significa que apenas uma pode falar de cada vez e que todas precisam operar na mesma
velocidade (sempre nivelada por baixo). Isto funciona bem em pequenas redes, mas confirme o
número de PCs aumenta, o desempenho diminui rapidamente.
Surgem então os switchs, aparelhos mais inteligentes, que são capazes de estabelecer ligações
apenas entre o emissor e o destinatário da transmissão. Isso permite que várias transmissões
sejam feitas ao mesmo tempo (entre PCs diferentes naturalmente) e cada placa pode operar na

sua velocidade máxima. Usando switch o desempenho da rede se mantém com um número muito
maior de estações.
Os hubs são atualmente muito baratos, entre 60 e 200 reais, mas o switchs podem ser muito mais
caros, chegando facilmente aos 500 reais.
Finalmente, temos os roteadores, que são o topo da cadeia evolutiva. Os roteadores são ainda
mais inteligentes, pois são capazes de interligar várias redes diferentes e sempre escolher a rota
mais rápida para cada pacote de dados. Os roteadores podem ser desde um PCs comuns, com
duas ou mais placas de rede até supercomputadores capazes de gerenciar milhares de links de
alta velocidade. Os roteadores formam a espinha dorsal da Internet.
Finalmente, temos as redes sem fio, que estão em rápida ascensão, lideradas pelas placas
802.11b.
Isso mesmo, “802.11b”. esqueceram de inventar um nome mais familiar para o padrão, mas
enfim, o que importa é o que ele faz, não é mesmo? :-)
Os transmissores 802.11b são bastante compactos, a ponto de caberem num cartão PC-Card, que
pode ser instalado em qualquer notebook. Existem ainda placas para micros de mesa, assim como
adaptadores, que permitem usar os cartões em micros de mesa.
Ao invés do Hub temos o ponto de acesso, que é capaz de centralizar as transmissões de dados de
algumas dezenas de estações.

A velocidade é de 11 megabit, um pouco mais que as redes Ethernet de 10 megabits e o alcance
varia entre 15 e 100 metros, dependendo dos obstáculos. A grandes distâncias o sinal se degrada
e a velocidade de transmissão diminui, até o sinal se perder completamente.
Além dos notebooks, as interfaces 802.11b podem ser usadas em alguns handhelds e tem tudo
para se tornarem cada vez mais populares.
Os pontos de acesso quase sempre podem ser conectados a uma rede Ethernet já existente,
unificando as duas redes. Isto permite que num escritório você possa ligar os desktops usando
uma rede Ethernet convencional, que é mais rápida e mais barata e usar a rede sem fio apenas
para os notebooks.

Além dos componentes físicos da rede serem quase sempre intercompatíveis, os sistemas
operacionais atualmente também são.
Com um pouco de conhecimento de causa, você não terá maiores problemas para interligar um PC
rodando Windows, outro rodando Linux e um Macintosh na mesma rede, trocar arquivos e
compartilhar a conexão com a Internet entre eles.
Alguns termos que você precisa ter em mente:
TCP/IP – É o principal protocolo de rede, usado na Internet e na grande mairia das rede locais. O
protocolo é justamente a língua universal que permitem que vários sistemas diferentes possam
conversar.
ICS – É o programa, presente no Windows 98 SE, Windows ME, Windows 2000 e Windows XP que
permite compartilhar a conexão com a Internet. Os clientes podem rodar Linux, Mac OS ou vários
outros sistemas, pois tudo é feito via TCP/IP, que é universal.
Samba – Este é o software que permite compartilhar arquivos entre máquinas Linux e Windows.
Roda no Linux.
Compartilhamento – Seja no Windows ou no Linux, tudo que for ser acessado por outros micros
da rede é chamado de compartilhamento. Você pode compartilhar arquivos (pastas, ou até mesmo
o HD inteiro), CD-ROM, Impressora, etc. Da até para usar o PC remotamente, através do VNC.

Hoje em dia, quando ouvimos falar em processadores de 1 GHz dá até sono, de tão comuns que
eles já se tornaram. Pouca gente já ouviu falar no 8088, que foi o processador usado no PC XT, a
quase 20 anos atrás, e muito menos no Intel 4004, o primeiro microprocessador, lançado em 71.
Nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da
história, começando não apartir da década de 70 ou 80, mas no século XIX. Sim, na época dos
nossos bisavós os computadores já existiam, apesar de extremamente rudimentares. Eram os
computadores mecânicos, que realizavam cálculos através de um sistema de engrenagens,
acionado por uma manivela ou outro sistema mecânico qualquer. Este tipo de sistema, comum na
forma de caixas registradoras era bastante utilizado naquela época.
No final do século XIX surgiu o relê, um dispositivo eletromecânico, formado por um magneto
móvel, que se deslocava unindo dois contatos metálicos. O Relê foi muito usado no sistema
telefônico, aliás algumas centrais analógicas ainda utilizam estes dispositivos até hoje. Os relês
podem ser considerados uma espécie de antepassados dos transístores. Suas limitações eram o
fato de serem relativamente caros, grandes demais e ao mesmo tempo muito lentos: um relê
demora mais de um milésimo de segundo para fechar um circuito.
Também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para
criar os primeiros computadores eletrônicos, na década de 40.
As válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa
certa tarde quando Thomas Edison, inventor da lâmpada elétrica estava brincando com a sua
invenção. Ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa
metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada
à chapa metálica, mesmo que os dois estivessem isolados. Havia sido descoberto o efeito
termoiônico, o princípio de funcionamento das válvulas.
As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns Megahertz, o
problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com
facilidade. Era fácil usar válvulas em rádios, que usavam poucas, mas construir um computador,
que usava milhares delas era extremamente complicado, e caro.
Apesar de tudo isso, os primeiros computadores começaram a surgir durante a década de 40,
naturalmente com propósitos militares. Os principais usos eram a codificação e decodificação de
mensagens e cálculos de artilharia.
Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical
Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos
do que 17,468 válvulas, ocupando um galpão imenso. Porém, apesar do tamanho, o poder de
processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000
adições, 357 multiplicações e 38 divisões por segundo, bem menos até do que uma calculadora de

bolso atual, das mais simples.
A idéia era construir um computador para realizar vários tipos de cálculos de artilharia para ajudar
as tropas aliadas durante a segunda Guerra mundial. Porém, o ENIAC acabou sendo terminado
exatos 3 meses depois do final da Guerra e acabou sendo usado durante a guerra fria,
contribuindo por exemplo no projeto da bomba de Hidrogênio.

Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos
programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves
manuais. A cada novo cálculo, era preciso reprogramar várias destas chaves. Isso sem falar no
resultado, que era dado de forma binária através de um conjunto de luzes. Não é à toa que a
maior parte dos programadores da época eram mulheres, só mesmo elas para ter a paciência
necessária para programar e reprogramar esse emaranhado de chaves várias vezes ao dia.

Vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram
simplesmente complexas demais.
Mesmo assim, na época a maior parte da indústria continuou trabalhando no aperfeiçoamento das
válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a
procurar alternativas menos problemáticas.
Várias destas pesquisas tinha como objetivo a pesquisa de novos materiais, tanto condutores,
quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se
enquadravam nem em um grupo nem no outro, pois de acordo com a circunstância, podiam atuar
tanto quando isolantes quanto como condutores, formando uma espécie de grupo intermediário
que foi logo apelidado de grupo dos semicondutores.
Haviam encontrado a chave para desenvolver o transístor. O primeiro projeto surgiu em 16 de
Dezembro de 47, onde era usado um pequeno bloco de germânio (que na época era junto com o
silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo
positivo, o outro o polo negativo, enquanto o terceiro tinha a função de controle. Tendo apenas
uma carga elétrica no polo positivo, nada acontecia, o germânio atuava como um isolante,
bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento
de controle, uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo.

CONTINUA NA APOSTILA…………..